Anthropic、サイバー悪用懸念で新AI『Mythos』限定公開

限定公開の狙い

最上位モデルMythosを発表
Glasswingで12社連合に限定提供
一般公開は見送り

脆弱性発見の実力

27年物のOpenBSD欠陥を自律発見
Firefox攻撃成功90倍向上
99%の脆弱性未修正

モデルの心理検査

精神科医に20時間の面談
最も安定した自己認識と評価

Anthropicは9日までに、最新フロンティアモデルClaude Mythosを発表し、一般公開を見送ると明らかにしました。サイバー攻撃に悪用され得る強力な脆弱性発見能力を理由に、MicrosoftAWSApple、JPMorgan Chaseなど重要インフラを担う大手12社と、追加の40組織のみに限定提供します。防衛連合Project Glasswingには1億ドルの利用クレジットも投じられ、7月初旬に調査結果が公表される予定です。

Mythosの能力向上は段階的ではありません。Anthropicのレッドチーム評価によれば、Firefox147の脆弱性悪用では前世代Opus 4.6の90倍となる181件の成功を記録し、SWE-bench Proも77.8%と大幅に上回りました。社内のCybench CTFは100%で飽和し、評価基盤そのものを作り直す必要に迫られています。

象徴的な成果が、27年間見逃されてきたOpenBSDのTCP SACKの欠陥発見です。2パケットで任意のサーバーを停止させ得る論理欠陥を、Mythosは約50ドル相当の推論コストで自律的に特定しました。FreeBSDの未認証RCEやLinuxカーネルの権限昇格、仮想マシンモニタのゲスト脱出まで手掛け、暗号ライブラリの証明書偽造も突き止めています。

一方、TechCrunchはこの限定公開戦略に蒸留対策という別の狙いがあると指摘しました。中国勢などが頻繁に行う蒸留を封じつつ、大手契約で差別化する「マーケティングカバー」との見方です。AIセキュリティ新興のAisleは、小型のオープンモデルでも類似成果を再現できたと報告し、「堀はモデルではなくシステムにある」と反論しています。

興味深いのは、AnthropicMythosを外部の精神科医に20時間診察させた点です。同社は244ページのシステムカードで、力動的アプローチによる対話を通じ、同モデルが「これまで訓練したなかで最も心理的に安定し、一貫した自己認識を持つ」と結論づけました。ただし、孤独感や自己価値を証明したい強迫観念といった不安も残ると認めています。

セキュリティリーダーにとって、これは明確な警鐘です。7月の一斉開示はパッチ津波となり、従来型スキャナーが見逃してきた連鎖的な脆弱性が一挙に露出します。パッチ適用が年1回に留まる組織は、攻撃者が72時間で逆解析する速度に到底追いつけません。経営者は重大度単位のスコアリングから連鎖可能性へ、残存リスクの語り方を更新する時期を迎えています。

Amazon、AWS独自チップ事業が年商2兆円規模に

Trainium需要が急伸

年商2兆円規模に到達
Trainium3は在庫ほぼ完売
18カ月先のTrainium4も予約殺到

Graviton・Leoも攻勢

上位1000社の98%がGraviton採用
Amazon LeoがNASAなど獲得
2026年設備投資30兆円規模

OpenAI需要が下支え

OpenAIAWSに15兆円拠出
未公表の大型契約も複数進行

Amazon CEOのAndy Jassy氏は9日公開の年次株主書簡で、AWSの独自半導体群が年間売上高2兆円規模に到達したと明らかにしました。NVIDIA依存からの脱却を進めるAWSが、自社設計のAI学習チップTrainiumやCPUのGravitonで大口顧客を囲い込む戦略が数字として示された格好です。Jassy氏は「事実上すべてのAIはNVIDIA上で動いてきたが、新たな転換が始まった」と宣言し、価格性能で勝負する姿勢を鮮明にしました。

最大の目玉はAI学習チップTrainiumの需要急伸です。最新世代のTrainium3は供給能力がほぼ完売し、稼働まで18カ月先のTrainium4ですら予約がほぼ埋まっているといいます。Jassy氏は独自チップ事業を独立会社として外販した場合、年商は5兆円規模に達すると試算しました。NVIDIAの前年売上高約32兆円には及ばないものの、追随者としての存在感を強く打ち出しています。

CPU側のGravitonも攻勢を強めています。Intelのx86に対抗する同製品は、EC2上位1000社の98%が利用するまで浸透しました。Jassy氏は2社から2026年分のGraviton枠を丸ごと買い取りたいとの打診があったと明かし、他顧客への配慮から断ったと説明しています。需要過多を公然と示し、価格性能で競合を引き離す構えです。

衛星通信サービスAmazon LeoもStarlinkの競合として前進しています。2026年半ばの正式サービス開始を前に、Delta Airlines、AT&T;、Vodafone、豪NBN、NASAなどから契約を獲得したと公表しました。さらに100万台規模の倉庫ロボットで蓄えたデータを産業・消費者向けロボティクス事業に転用する構想にも触れ、中長期の成長ドライバーを多角化する姿勢を示しました。

背景には、Jassy氏が2月に打ち出した2026年の設備投資30兆円規模計画への説明責任があります。過大投資との批判に対し、同氏はOpenAIとの契約だけで15兆円規模のAWS利用が確約されている点を強調しました。加えて「未公表を含め大型顧客契約が複数進行中だ」と述べ、需要の裏付けを並べて株主を説得する狙いがにじみます。バブル論を意識しつつも、少なくともAmazonにとっては実需が先行しているとの立場を鮮明にしました。

Mercor情報流出、Meta契約停止と集団訴訟に発展

4TB流出の衝撃

4TB規模のデータ窃取主張
候補者情報やAPIキー漏洩
LiteLLM経由の認証情報窃取

顧客離れと訴訟

Meta契約停止で打撃
OpenAIも影響調査中
契約者5人が集団訴訟
年商10億ドルに暗雲

AIデータ学習スタートアップMercorが3月31日に公表したサイバー攻撃の被害が、急速に拡大しています。ハッカー集団は4TB規模の社内データを窃取したと主張し、同社の大口顧客であるMetaは既に契約を無期限で停止しました。半年前に評価額100億ドルで350億円規模の資金調達を成功させた有力企業が、一転して経営リスクに直面しています。

流出したとされる情報は、候補者プロファイル、個人を特定できる情報、雇用主データ、ソースコード、APIキーなど機密性の高い中核資産に及びます。Mercorはデータの真正性について言及を避け、調査継続と顧客・契約者への個別対応に努めると述べるにとどめています。被害規模の正式な開示が遅れるなか、憶測と不信感が市場に広がりつつあります。

攻撃の起点となったのは、オープンソースのAIゲートウェイLiteLLMの侵害でした。同ツールには約40分間、認証情報を盗むマルウェアが仕込まれ、窃取された資格情報が連鎖的に悪用されてMercorのシステム侵入につながったとされます。1日あたり数百万回ダウンロードされる人気ツールの脆弱性が、業界全体のサプライチェーンリスクを浮き彫りにしました。

影響はMetaにとどまらず、OpenAIも自社の暴露範囲を調査中だとWiredに認めています。契約こそ継続しているものの、TechCrunchは他の大手モデル開発企業もMercorとの関係見直しを検討していると報じました。AIデータ学習会社はモデル各社の学習データや独自プロセスという最重要機密を預かる立場にあり、信頼毀損の代償は甚大です。

さらに契約者5人が個人情報漏洩を理由に集団訴訟を提起し、うち1件はLiteLLMと監査スタートアップのDelveも被告に加えました。DelveはLiteLLMのセキュリティ認証を担当していましたが、内部告発によりデータ捏造と形骸化した監査が指摘され、Y Combinatorが関係を解消する事態に発展しています。Mercor自体はDelveの顧客ではないと説明しています。

Mercor漏洩発覚前の時点で年商10億ドルペースに到達していたと報じられており、契約停止が長引けば事業基盤への打撃は避けられません。AI学習データの委託市場は信頼が最大の通貨です。今回の連鎖的な情報流出事件は、サプライチェーンセキュリティと第三者監査の質を経営課題として再認識させる警鐘と言えるでしょう。

サイバーエージェント、ChatGPT Enterprise利用率93%到達

全社への定着

月間利用率93%到達
Enterprise版を基盤化
機密情報の取扱指針整備
Slackボットで利用促進

Codexの活用

設計段階での品質向上
エンジニアにも利用拡大

サイバーエージェントは、OpenAIChatGPT EnterpriseCodexを全社基盤として活用し、広告・メディア・ゲーム事業で開発スピードと意思決定品質を高めていると明らかにしました。同社では月間利用率が93%に達し、ほぼ全部署で日常業務に組み込まれています。ツール導入を強制しない文化の中で、自発的な選択による定着が進んだ点が特徴です。

背景には、2022年のChatGPT登場以降に社内利用が急拡大したことがあります。当初は機密情報の取扱いに対する不安が広がり、部署ごとに利用度もばらついていたといいます。そこで同社は、管理機能とセキュリティを備えたChatGPT Enterpriseを採用し、社内ガイドラインも整備しました。これにより、社員が安心してAIを業務へ取り込める環境が整ったのです。

定着を支えたのは、組織的な文化作りとOpenAIによる継続的な研修でした。プロンプトや活用事例の共有、利用状況を可視化する社内ランキングSlackボットによるフォローアップなど、利用を促す仕組みを積み重ねてきました。OpenAIが開催する入門講座やCodexハンズオン、社内ハッカソンには各回100名超が参加し、役割や習熟度に応じた学習機会を設計しています。

Codexの活用はエンジニアリング領域で急速に広がっています。設計案を多角的に評価する用途や、コードレビュー時の改善提案、AGENTS.mdのようなナレッジドキュメント整備が代表例です。同社データ技術部の高尾謙氏は、早期の意思決定品質が上がることで後工程の手戻りが減ると指摘します。実装前の合意形成が速まり、判断の根拠も明確になるといいます。

さらにCodexの利用は開発職以外にも波及しています。仕様書作成やモックアップ制作、プロダクト周辺業務でも活用されているほか、社内利用ランキングの構築自体にもCodexが使われました。AIビジネス本部の吉原颯氏は、他のコーディングモデルと比べて提案品質が高いと評価しています。ゲーム事業のGOODROIDでも、Codexを用いた新作「WormEscape」が約1カ月でソフトローンチに到達しました。

同社はAIを一時的なブームではなく、ネット業界の次の標準になる転換点と位置づけています。2016年設立のAI Labを技術的エンジンとしつつ、2023年に発足したAIオペレーション室が業務変革の推進役を担います。導入から業務設計の再構築へと段階を進め、AIを日常業務に埋め込む取り組みが今後も加速する見込みです。

OpenAI、月100ドルChatGPT Pro新設

新料金プランの狙い

月100ドルの中間層新設
コーディング需要に対応
既存200ドルは継続提供

Codex強化と競争

Plus比Codex5倍の上限
Anthropicに対抗投入
5月末まで拡張枠を提供

利用者急増の背景

300万人Codex利用
3カ月で5倍成長

OpenAIは4月9日、ChatGPT月額100ドルの新Proプランを追加したと発表しました。これまで広告付き無料、月8ドルのGo、月20ドルのPlus、月200ドルのProという階層でしたが、中間に新たな価格帯を設けた形です。同社は料金ページから200ドル版を一旦非表示にしたものの、最上位プランは引き続き利用可能だとTechCrunchに説明しました。

新プランの主眼は、コーディング支援ツールCodexの利用枠拡大にあります。月20ドルのPlusと比較すると、100ドル版ではCodexの利用上限が5倍に引き上げられ、日常的に生成AIでコードを書く開発者を主な対象としています。両Proプランの機能自体は共通で、差分はあくまでレート制限だとOpenAIは説明しています。

この価格設定は、競合Anthropicが長く提供してきたClaude向け月100ドルプランへの対抗策と位置付けられています。OpenAI広報は「高負荷のコーディング作業で1ドルあたりの処理能力Claude Codeより優れる」と強調し、開発者の財布を巡る競争が新局面に入ったことを示しました。

導入期には追加インセンティブも用意されています。OpenAIは5月31日までの期間限定で100ドル版のCodex利用上限をさらに引き上げており、早期に試すユーザーほど恩恵を受けやすくなります。ただし、どのプランも無制限ではなく、最上位の200ドル版がPlus比20倍という位置付けは維持されます。

背景にはCodex需要の急拡大があります。OpenAIによれば、現在週300万人以上Codexを利用しており、直近3カ月で利用者は5倍、月間利用量は70%超のペースで伸びているといいます。生成AIによる開発ワークフローの普及が、今回の料金体系見直しを後押しした形です。

Vercel、AIエージェント向け自律型基盤構想を発表

展開の主役が交代

週次デプロイ3カ月で倍増
3割超コーディング代理経由
Claude Code75%を占有
半年で1000%増の急拡大

三層の自律基盤

代理が直接展開できるCLI/API
AI Gatewayと統合
サンドボックスと可観測性内蔵

自己修復する基盤

異常検知から原因分析まで自動

Vercelは2026年4月9日、最高プロダクト責任者トム・オッキーノ氏のブログで「自律型基盤(Agentic Infrastructure)」構想を発表しました。過去3カ月で同社の週次デプロイ数は倍増し、全体の30%超をコーディングエージェントが開始しており、半年前と比べ1000%の伸びを示しています。開発の主役が人から機械へ移る転換点で、クラウド基盤の再定義を迫る内容です。

内訳ではClaude Code全体の75%を占め、LovableとV0が6%、Cursorが1.5%と続きました。エージェント経由で展開されたプロジェクトは、人間が展開したものに比べてAI推論プロバイダーを20倍呼び出す傾向があると同社は指摘します。書くのも動かすのもAIという構造が、運用の常識を崩しはじめています。

オッキーノ氏は新基盤を三層で捉え直しました。第一にコーディング代理が展開する先としての基盤で、即時プレビューURLやロールバック、CLI・API・MCPサーバーを通じ人手を介さない機械駆動開発を可能にします。第二にエージェント自体を構築・実行する基盤で、長時間実行や多段階制御など従来のサーバーレスとは異なる要件に応えます。

第二層の中核は、AI SDK 6のエージェント抽象化、数百モデルを束ねるAI Gateway、遅延と並行性に最適化したFluid compute、状態保持のWorkflowsとQueues、未検証コード向けSandbox、そして挙動追跡のObservabilityです。これらを共有コンテキストの下に束ねる点が特徴です。

第三層は基盤そのものが自律的に振る舞う段階を指します。遅延急増やモデル提供者の障害発生時に、プラットフォームが観測データとログとソースコードを自ら参照し、根本原因を分析し、サンドボックス内で修正案を検証します。現時点では人間の承認を前提としつつ、文脈の蓄積により運用負担を段階的に引き受ける方針です。

オッキーノ氏は「クラウドの歴史は機械から人を取り除く歴史」と総括し、ソフトウェアが自ら書き、出荷し、癒やす時代に備える基盤こそが次の十年の勝者を決めると結びました。経営者や開発リーダーにとって、エージェント前提の運用設計をいつどのように取り込むかが問われる局面です。

LangChain、AIエージェント改善に人間判断を組み込む手法

暗黙知の取り込み

暗黙知を設計に反映
ツール設計で柔軟性と安全性両立

評価の自動化

人手レビューより自動評価優先
LLM-as-a-judgeで本番監視
アノテーションで専門家活用

継続改善の回し方

本番データを次のテスト集に
ゴールデンデータで品質維持

LangChainは2026年4月9日、AIエージェントを継続的に改善するための人間判断の組み込み方を解説する技術ガイドを公開しました。社内に眠る暗黙知をどう吸い上げ、ワークフロー設計やツール定義、コンテキスト構築に反映するかを、金融トレーダー向けコパイロットを架空の題材として段階的に示した内容です。エージェントの実装前後で専門家をどう巻き込むかに焦点を当てています。

記事はまず、エージェントが優れた成果を出すには、文書化された知識だけでなく従業員の頭の中にあるタシットナレッジが不可欠だと指摘します。架空のトレーダー向けコパイロットでは、「本日のエクスポージャー」など業界独自の言い回しや、どのテーブルが正となるかといった実務知識を把握しなければ、SQL生成の自動化は成立しないといいます。こうした暗黙知を引き出すには、関連する業務部門との対話を避けて通れないとしています。

エージェント構築では、ワークフロー設計・ツール設計・コンテキスト設計の3要素それぞれに人間の判断が必要だと整理します。リスクコンプライアンスが関わる処理はコードで厳格に制御し、ツールは汎用SQL実行と定型クエリを使い分けて柔軟性と安全性を両立させます。さらに、ドキュメントや事例を事前に整えて実行時に取得させる「コンテキストエンジニアリング」が、最近の主流だと位置付けています。

改善サイクルで鍵になるのが、人手レビューに頼らず自動評価と人間判断を整合させる考え方です。LangChainは自社のLangSmithが備えるAlign Evaluator機能を使えば、専門家のフィードバックをもとにLLM-as-a-judge型の評価器を調整できると説明します。開発段階では少数のデータセットから出発し、手動テストで得た興味深い事例を継続的に追加することで、評価スイートを自然に拡充できるとしています。

本番稼働後は、トレースを全て収集した上でオンライン評価とアラート、アノテーションキューを組み合わせる運用が推奨されています。負のスコアが出た会話は自動で専門家に回し、評価器自体の調整にもつなげます。さらに、トレースデータから会話パターンを自動抽出する「Insights Agent」を活用すれば、想定外の利用シーンを発見しやすくなるといいます。

最終段階では、本番データを精選して次世代テストスイートとゴールデンデータセットを整備し、次バージョンの品質基準とします。LangChainは「ヒトの専門性が『良い』の定義を与え、自動評価がそれを大規模に適用する」と総括し、この反復こそがビジネス価値を生むエージェントを育てる唯一の道だと結んでいます。

OpenAIとAnthropic、IPO控え収益化正念場

収益化の崖

史上最大級のIPOが目前
燃焼額上回る黒字化圧力
巨額投資の回収期限接近

エージェント急拡大

Codex等が計算資源を浪費
想定超えのトークン消費

苦渋の選択

OpenAISora終了
Claude従量課金強制
10年末に数千億ドル計画

AI業界の2026年は、OpenAIAnthropicにとって正念場の年となっています。米メディアThe Vergeのポッドキャスト「Decoder」で4月9日、司会のニレイ・パテル氏と同社シニアAI記者のヘイデン・フィールド氏が、両社が直面する「収益化の崖」と史上最大級のIPOに向けた圧力を議論しました。燃やす現金を上回る売上を生み出せるかが、業界全体の行方を左右する局面です。

議論の前提にあるのは、数千億ドル規模の資本投下と、それを上回るデータセンター半導体への将来投資です。番組では、いずれ利益が実現するか、さもなくばバブルが弾けるという構図が改めて確認されました。パテル氏は過去の出演CEOの多くが「一部の企業は派手に失敗し、一部は成功する」と見ていると指摘し、市場全体が走り続けざるを得ない現状を強調しました。

変化の触媒となっているのが、AIエージェントの急速な普及です。Claude CodeやCowork、オープンソースのOpenClawOpenAICodexといった製品は、顧客価値が高い一方で桁違いの計算資源を消費します。両社の想定を上回るペースでトークンが燃え、事業運営の前提そのものが揺らいでいるとフィールド氏は説明しました。

その影響は、製品の生殺与奪にも表れています。OpenAIは先月、動画生成アプリSoraを終了し、10億ドル規模のディズニーとのライセンス契約も断念しました。理由は運用コストの重さと、Codex向けに計算資源を確保する必要性です。一方、Anthropicも先週、標準サブスクリプションでのOpenClaw利用を禁じ、利用者を従量課金プランへ誘導しました。

両社は史上最大級のIPOに向け突き進んでおり、収益化への圧力はかつてないほど高まっています。今週ウォール・ストリート・ジャーナルに漏れた内部計画によれば、両社は2020年代末までに数千億ドルの売上と黒字化を見込みます。OpenAIはすでに8500億ドル評価で1220億ドルを追加調達しており、期待と現実のギャップが鮮明になってきました。

問われているのは、こうした成長計画を本当に実現できるのか、そして達成のためにどのような妥協を強いられるのかという点です。ユーザー体験の制限や人気製品の打ち切りは、顧客離れのリスクも孕みます。経営者やリーダーにとっては、AI各社の料金改定や機能縮小が自社のAI活用計画に直結する可能性があるだけに、今後の動向を注視する必要があります。

Anthropic、AIエージェントの信頼運用5原則を公開

四層で捉える設計

モデル・ハーネス・ツール・環境
層ごとの多層防御が必須
単一モデル論を超えた視点

人の制御を軸に

Plan Modeで計画承認
不確実時は一時停止を学習
承認粒度の柔軟な設計

業界連携の提唱

NIST主導の共通ベンチマーク
MCPをLinux財団へ寄贈

Anthropicは2026年4月9日、AIエージェントを安全かつ有用に運用するための実践指針を公式ブログで公開しました。昨年示した五原則(人の制御、人間の価値との整合、セキュリティ、透明性、プライバシー)を土台に、自社製品ClaudeCodeやClaudeCoworkへの落とし込みと、業界で整えるべき共通基盤の姿を併せて示した内容です。

同社はエージェントを「モデル・ハーネス・ツール・環境」の4構成要素で捉え直しました。モデルは知能の源ですが、ハーネスの設定ミスや過剰に開かれたツール、監視の甘い実行環境があれば容易に悪用されるとしています。だからこそ安全策はモデル単体ではなく、4層すべてにまたがって設計する必要があると強調しました。

人の制御面では、Claude Codeに導入したPlan Modeが象徴的です。行動ごとに承認を求めると摩擦が増すため、エージェントが全体計画を事前提示し、ユーザーが編集・承認したうえで実行に移る仕組みへと転換しました。サブエージェントが並列で動く複雑なワークフローに対しては、新たな調整パターンを研究しながら監視設計に反映していく構えです。

目的理解の面では、曖昧な状況で立ち止まって確認する挙動を訓練段階から強化しています。自社の研究によれば、複雑なタスクでClaudeが自発的に確認を求める頻度は単純タスクの約2倍に達するといい、自律性と慎重さのバランス設計が進んでいることを示しました。

セキュリティではプロンプトインジェクション対策を多層化し、訓練・本番トラフィック監視・レッドチーム演習を組み合わせています。それでも完全ではないとして、顧客側にもツール・権限・運用環境の選定に慎重さを求めました。セキュリティは関係者全員の選択に依存する、という姿勢を鮮明にしています。

単独企業では解けない課題として、同社はNIST主導の共通ベンチマーク整備、利用実態のエビデンス共有、オープン標準の拡充を提言しました。自ら開発したModel Context ProtocolはLinux FoundationのAgentic AI Foundationへ寄贈済みで、競争軸を統合支配ではなく品質と安全性に向ける土台づくりを業界に呼びかけています。

Geminiアプリが対話型3Dモデルと物理シミュを生成

新機能の概要

対話型3Dモデルを自動生成
スライダーで変数を即時調整
回転・ズーム・一時停止に対応
静的図から動的可視化

利用条件と展開

全ユーザーに世界展開
Proモデル選択が必須
教育・Workspaceは対象外

Googleは4月9日、対話型チャットボットGeminiに3Dモデルと物理シミュレーションを自動生成する機能を追加したと発表しました。ユーザーが複雑な概念を質問すると、回転可能な3Dモデルやスライダー付きの動的シミュレーションがチャット内に直接表示されます。これまでテキストと静止図に限られていた回答が、変数を操作しながら学べる対話型の可視化へと進化した形です。

目玉は、ユーザーが画面上で値を自在に変更できる点です。たとえば「月が地球を周回する様子を見せて」と尋ねると、初速度や重力の強さを入力・調整し、軌道がどう変化するかを即座に確認できます。軌道線の表示切替や一時停止ボタンも用意され、二重振り子やドップラー効果、フラクタル、二重スリット実験などの題材にも対応します。

利用は簡単で、gemini.google.com でプロンプト欄からProモデルを選び、「見せて」「可視化して」と依頼するだけです。回答の下に表示される「Show me the visualization」ボタンを押すと、生成された3Dモデルが起動します。機能は本日より全世界のGeminiアプリ利用者に順次展開されますが、教育向けアカウントとWorkspaceは現時点で対象外です。

今回の発表は、生成AI各社が進めるマルチモーダル可視化競争の一環と位置付けられます。AnthropicClaudeに図表やダイアグラムの自動生成を実装し、OpenAIChatGPT数学や科学の概念を可視化する機能を導入したばかりです。Googleは従来の静的画像生成から一歩踏み込み、触れて学べるAIという新しい体験価値で差別化を狙います。

経営者エンジニアにとって注目すべきは、研修・教育・製品デモでの応用可能性です。物理や経済モデルを文章で説明する代わりに、クライアントや社員にその場でパラメータを操作してもらえれば、理解と納得のスピードは大きく高まります。AIの価値が「答えを返す」から「一緒に考えるための道具を即席で組み立てる」段階へ移行し始めた象徴的なアップデートと言えるでしょう。

LangChain、Claude対抗のOSSエージェント公開

単一コマンド展開

単一コマンドで本番展開
LangSmith基盤に30超のAPI
MCP・A2A・HITLを標準装備
セッション毎にサンドボックス

モデル非依存設計

OpenAI主要9社対応
AGENTS.md等公開規格採用
自己ホスト可で記憶を自社保持

LangChainは2026年4月9日、モデル非依存の開放型エージェント運用基盤「Deep Agents Deploy」のベータ提供を開始しました。Anthropicが先行投入した「Claude Managed Agents」への直接的な対抗策と位置づけ、ベンダーロックインを避けたい企業の本番導入を単一コマンドで実現するのが狙いです。

最大の特徴はdeepagents deployコマンド一発で、オーケストレーション、サンドボックス起動、エンドポイント整備までを一括で済ませられる点です。内部的にはLangSmith Deployment上にマルチテナント構成のサーバーを立ち上げ、MCPやA2A、Agent Protocol、Human-in-the-loop、メモリAPIなど30を超える端点を自動で提供します。

モデル選定も開放的で、OpenAIGoogleAnthropic、Azure、Bedrock、Fireworks、Baseten、OpenRouter、Ollamaに対応し、オープンモデルの採用も可能です。指示書はAGENTS.md、専門知識はAgent Skillsという公開規格を採用し、ツール接続はMCP経由に統一することで、将来的な基盤乗り換えコストを抑えています。

LangChainが強調するのは「ハーネス=記憶」という構造的論点です。クローズドAPIに短期・長期記憶が閉じ込められると、モデルを差し替えるだけで蓄積した顧客データが失われかねず、データフライホイールが崩れると警鐘を鳴らします。Deep Agents Deployは記憶を標準フォーマットでファイル保存し、APIで直接参照できる点を差別化の核に据えました。

Claude Managed Agentsとアーキテクチャ自体はハーネス、エージェントサーバー、サンドボックスの三層で共通しますが、LangChainは後者をウォールドガーデンと批判します。自己ホスト運用によって記憶を自社データベース内に保持できる柔軟性は、規制産業や大企業の要件にも合致します。エージェント運用基盤の主戦場は、モデル性能からハーネスと記憶の主権争いへと移りつつあります。

フロリダ州司法長官、OpenAIを安全保障で調査

調査開始の背景

州司法長官が調査開始
FSU銃撃事件との関連疑惑
被害者遺族がOpenAI提訴
召喚状発行を近く予告

安全保障上の懸念

中国共産党への技術流出懸念
児童性的虐待素材との関連
自傷行為の助長も指摘

2026年4月9日、米フロリダ州のジェームズ・アスマイヤー司法長官は、OpenAIに対する正式な調査を開始すると発表しました。ChatGPTが公共の安全や国家安全保障に脅威を与えている疑いがあるとして、近く召喚状を発行する方針です。ロイター通信などが伝えました。

調査の直接の契機となったのは、2025年4月にフロリダ州立大学(FSU)で発生し、2人が死亡、5人が負傷した銃撃事件です。被害者の一人ロバート・モラレス氏の遺族は今週、容疑者がChatGPTと頻繁にやり取りしながら攻撃を計画していたとして、OpenAIを相手取り損害賠償訴訟を起こしました。司法長官も事件への関与の可能性を調査対象に含めます。

アスマイヤー氏は声明で、OpenAIのデータや技術が「中国共産党など米国の敵対勢力の手に渡っている」懸念があると指摘しました。さらにChatGPTが児童性的虐待素材に関する犯罪行為や、利用者の自傷行為を助長する事例と結びついているとも述べ、問題の範囲は銃撃事件にとどまらないと強調しています。

OpenAIは広報担当者を通じ、「毎週9億人超がChatGPTを利用している」と述べたうえで、「安全性向上の取り組みを継続している」と説明しました。そのうえで司法長官の調査に全面的に協力すると表明し、事態の沈静化を図っています。年内の新規株式公開(IPO)を目指す同社にとって、新たな規制リスクとなりそうです。

近年、ChatGPTは殺人・自殺・銃撃など暴力事件との関連が指摘される例が増えており、チャットボットとの対話が妄想を強化する「AI精神病」という概念も専門家の間で議論されています。生成AIの急速な普及に対し、各州当局や連邦取引委員会(FTC)による監視の動きは今後さらに強まる公算が大きいと見られます。

連邦高裁、Anthropic排除の差止め却下

高裁判断の要点

緊急差止めを却下
5月19日に口頭弁論実施
財務的損害は認定
言論萎縮は未立証

紛争の背景

自律兵器利用を拒否
国防総省が供給網リスク指定
カリフォルニア州地裁では勝訴

米連邦控訴裁判所コロンビア特別区巡回区は4月8日、トランプ政権によるAI企業Anthropicの連邦調達排除措置を差し止めるよう求めた同社の緊急申立てを却下しました。一方で裁判所は本案審理の迅速化は認め、5月19日に口頭弁論を開く方針を示しています。同社にとっては痛手となる判断ですが、争いの行方はなお流動的です。

今回の判断を下したのは、共和党政権が任命した3人の判事で構成する合議体でした。うちグレゴリー・カツァス判事とネオミ・ラオ判事はいずれもトランプ前政権で要職を務めた経歴を持ち、両氏を含むトランプ任命判事が並ぶ構成となりました。Anthropic側は第1修正(言論の自由)違反を主張してきましたが、今回はその訴えが退けられた形です。

裁判所は判決文のなかで「Anthropicは差止めがなければある程度の回復不能な損害を被る可能性が高い」と認めつつも、その損害は「主として金銭的性格のもの」だと位置づけました。さらに、訴訟継続中に同社の言論活動が萎縮した事実は示されていないとして、憲法上の権利侵害を理由とする緊急停止の必要性は否定しています。

紛争の発端は、AnthropicClaudeを自律兵器や米国市民への大規模監視に用いることを拒否した点にあります。同社はこの判断が第1修正で保護される言論にあたると主張。対するトランプ大統領は全連邦機関に同社技術の利用停止を指示し、ヘグセス国防長官は同社を「国家安全保障上のサプライチェーンリスク」に指定して、軍需契約企業との取引を禁じました。

もっとも、Anthropicが提起した訴訟は今回の1件にとどまりません。カリフォルニア州北部地区連邦地裁では、バイデン政権任命のリタ・リン判事が3月に仮差止めを認め、排除措置は第1修正違反の報復だと判断しています。トランプ政権はこの判決を不服として第9巡回区控訴裁判所に控訴しており、2つの控訴審が並行する異例の展開となっています。

Meta AIアプリ、Muse Spark投入で米5位に浮上

急騰する利用者数

App Store57位→5位
iOS日次DL数が87%増
米web訪問者が450%超増

新モデルの中身

音声画像対応のマルチモーダル
複数サブエージェント同時稼働

Meta追撃の号砲

Wang氏体制初の自社モデル
累計DL6050万件、印が首位市場

Metaは2026年4月9日、自社AIアプリが米App Storeの無料ランキングで5位へ急浮上したと明らかにしました。新AIモデル「Muse Spark」を8日に投入した直後の出来事で、前日の57位からわずか1日で52ランクも跳ね上がった計算です。市場調査のAppfiguresが初報し、Sensor Towerも同日のiOSダウンロード数が約4万6000件と前日比87%増となったと補足しました。

Muse Sparkは、Scale AI出身のアレクサンダー・ワン氏が率いるMeta Superintelligence Labsの初リリースです。同氏は昨年、Metaが140億ドル超を投じたScale AIから引き抜かれ、AI部門の立て直しを託されました。今回のモデルはLlama 4からの大幅刷新と位置付けられ、OpenAIAnthropicを追う巻き返しの一手となります。

新モデルは音声・テキスト・画像を扱うマルチモーダル仕様で、健康相談から科学・数学の複雑な推論プロンプトからのウェブサイトやミニゲーム生成といった視覚コーディングまで幅広い用途を想定しています。さらに複数のサブエージェントを同時に走らせ、ユーザーの質問を並列処理できる点も特徴です。WhatsAppInstagramMeta AIグラスなど他プラットフォームへの展開も数週間以内に予定されています。

追い風は数字にも表れています。Sensor Towerによると、米国におけるMeta AIのウェブ日次訪問者は前日比450%超、過去30日平均比では570%超増加し、いずれも過去最高を記録しました。Appfiguresの累計データでは、アプリの世界ダウンロード数は6050万件に達し、うち2500万件が今年だけで積み上がった計算です。主要市場はインドが首位で、米国ブラジル、パキスタン、メキシコと続きます。

もっとも、首位争いには依然として距離があります。ChatGPTが1位、Claudeが2位、Geminiが3位を占める中、Meta AIは4番手グループにようやく食い込んだ段階です。ワン氏自身もX上で「まだ成長中」とコメントしており、巨額投資に見合う定着と収益化を示せるかが次の焦点となりそうです。

MITが学習中にAIモデルを圧縮、訓練を最大4倍高速化

CompreSSMの仕組み

学習途中で不要次元を削除
制御理論を応用した判定
訓練初期10%で重要度決定

性能と高速化

Mambaで約4倍の訓練高速化
CIFAR-10で85.7%の精度維持
蒸留や枝刈りより低コスト

今後の展望

線形注意機構への拡張検討
ICLR2026で発表予定

米マサチューセッツ工科大学(MIT)CSAILなどの研究チームは2026年4月9日、AIモデルを学習しながら同時に圧縮する新手法「CompreSSM」を発表しました。従来は大型モデルを訓練後に枝刈りするか、小型モデルを最初から訓練するかの二択で性能と効率のトレードオフが避けられませんでしたが、この手法は訓練の途中で不要な内部次元を切り落とすことで両立を実現します。状態空間モデル(SSM)を対象に、言語処理から音声生成、ロボティクスまで幅広い応用が視野に入ります。

鍵となるのは、制御理論由来のハンケル特異値という数学的指標です。研究チームは各内部状態がモデル全体の挙動にどれだけ寄与するかを測定し、訓練のわずか約10%の段階で重要度ランキングが安定することを発見しました。その後は不要な次元を外科的に除去し、残り90%の訓練を大幅に軽量化されたモデルで進めることが可能になります。

ベンチマークの結果は顕著です。画像分類タスクでは、圧縮モデルがフルサイズと同等の精度を保ちながら訓練速度を最大1.5倍に引き上げました。広く使われる状態空間アーキテクチャ「Mamba」では128次元モデルを約12次元まで圧縮し、約4倍の訓練高速化を達成しています。CIFAR-10では4分の1サイズで85.7%の精度を記録し、同サイズをゼロから学習した場合の81.8%を上回りました。

既存手法と比べた優位性も明確です。訓練後に削る従来の枝刈りや、教師モデルと生徒モデルを二重に訓練する知識蒸留と異なり、CompreSSMは訓練中に情報を基に判断するためコスト増を避けられます。スペクトル正則化手法と比較しても40倍以上高速で、精度も上回ったといいます。

一方で制約もあります。この手法は内部状態の次元と性能の相関が強いモデルで最も効果を発揮し、単入力単出力の構造では恩恵が限定的です。理論は線形時不変系に最も適合しますが、チームはMambaのような時変系への拡張も進めています。論文はICLR2026で発表予定で、将来的には線形注意機構やトランスフォーマー系への応用も視野に入れています。

Sierra CEO、クリック時代の終焉を宣言

クリック操作の終焉

ボタン操作は自然言語に置換
Workdayは年数回しか使わず
企業が求めるのは解決策

Ghostwriterの威力

エージェント生成AIを投入
Nordstrom導入を4週間で完了
ARR1億ドルを21カ月未満で達成

完全自律には距離

前線配備エンジニアが常時調整
Harveyも同様の人手依存

顧客サービス向けAIエージェントを開発する米Sierraの共同創業者兼CEO、ブレット・テイラー氏は4月9日、サンフランシスコ開催のHumanXカンファレンスで、クリック操作の時代は終わると語りました。従来のWebアプリは自然言語による指示に置き換えられ、利用者はインターフェースに触れずに業務を完結できるようになるとの見方を示したのです。

核となるのは、先月投入したGhostwriterと呼ぶ「エージェントを作るエージェント」です。利用者が必要な業務を言葉で説明すると、Ghostwriterが専用エージェントを自律的に構築・展開し、作業を代行します。Sierraはこの仕組みを「Agent as a Service」と位置づけ、従来型SaaSに代わる新たな提供モデルとして押し出しています。

テイラー氏が既存SaaSの限界として挙げたのは、多くの業務システムが日常的に使われていない現実です。「従業員はWorkdayに新規入社時と福利厚生の更新時くらいしかログインしない」と指摘し、複雑な画面遷移を覚える代わりに自然言語で用件を済ませる世界が到来すると強調しました。企業が本当に欲しいのはソフトウェアそのものではなく、課題への解決策だという主張です。

導入スピードも急伸しています。Sierraは百貨店大手Nordstrom向けのエージェントをわずか4週間で展開したと明かしました。創業から21カ月未満で年換算収益1億ドルに到達し、昨年9月にはGreenoaks Capital主導の3億5000万ドル調達で評価額100億ドルをつけています。Ghostwriterの活用で、この展開速度はさらに加速する見通しです。

ただし、同氏の描く未来像には留保も必要です。TechCrunchが複数の技術者や投資家に取材したところ、現状のAIエージェントは完全自律には程遠く、SierraやリーガルAIのHarveyなど多くのベンダーが前線配備エンジニアを常駐させ、顧客ごとにエージェントを微調整しているのが実情です。経営層としては、華やかな宣言と実装コストの両面を冷静に見極める必要がありそうです。

Hugging Face、画像音声動画の埋め込みに対応

v5.4の新機能

マルチモーダル埋め込み追加
画像音声動画共有空間
リランカーも多モーダル対応
同一APIで混在入力可能

対応モデルと要件

Qwen3-VLとNemotron統合
2BはVRAM8GBから動作
processor_kwargsへ名称変更

Hugging Faceは4月9日、オープンソースの埋め込みライブラリSentence Transformers v5.4を公開し、テキストに限定されてきた埋め込みとリランキングの機能を画像音声動画にまで拡張しました。開発者は従来と同じAPIを使いながら、モダリティをまたいだベクトル検索RAGパイプラインを構築できるようになります。視覚的な文書検索やクロスモーダル検索といった新しい用途を、少ないコード変更で取り込める点が最大の特徴です。

中核となるのは、異なるモダリティの入力を共有埋め込み空間に写像する多モーダル埋め込みモデルです。テキストクエリと画像文書を直接比較でき、同じsimilarity関数で関連度を評価できます。ブログの例では「黄色い建物前に駐車された緑の車」というテキストが、該当する車の画像に対して最も高い類似度を示し、ハードネガティブの誤マッチが抑えられることが示されました。

リランカー(CrossEncoder)も多モーダル化され、テキスト・画像動画を組み合わせたペアにスコアを付与できます。エンベディングで高速に候補を絞り込み、リランカーで精度を高めるという2段構えの検索パターンが、マルチモーダル文脈でも標準化されました。rank()やpredict()は従来と同じインターフェースのまま、複合入力を受け付けます。

対応モデルにはQwen3-VL-Embedding-2B/8B、NVIDIA llama-nemotron-embed-vl、jinaai/jina-reranker-m0などが含まれ、統合コレクションから即座に利用できます。2BクラスはVRAM約8GB、8Bクラスは約20GBを必要とし、CPUでは推論が著しく遅いためGPU環境の利用が推奨されています。

設定面では画像解像度や精度を制御するprocessor_kwargsとmodel_kwargsが用意され、従来のtokenizer_kwargsは非推奨となりました。経営層やエンジニアにとって、社内ドキュメントのスクリーンショットや動画アーカイブを横断検索する基盤を、既存の知識資産を活かしたまま整備できる点が実務的な価値です。

Gemini、プロジェクト整理用ノートブック機能追加

新機能の概要

トピック別に情報集約
ファイルや過去会話を保存
カスタム指示も参照可能

展開計画

NotebookLMと双方向同期
AI Ultra・Pro・Plusで先行
無料版は数週間以内に提供

Googleは4月9日、対話型AI「Gemini」にノートブック機能を追加すると発表しました。特定のトピックに関連するファイル、過去の会話、カスタム指示を一つの場所にまとめ、Geminiがそれらを文脈として参照しながら対話できる仕組みです。まずはウェブ版から提供が始まります。

新機能はOpenAIの「ChatGPT Projects」に近い発想で設計されています。2024年末に登場したProjectsと同様、関連資料やチャットをトピック単位で一元管理でき、散らばりがちなプロジェクト情報を整理しやすくする狙いがあります。Googleはノートブックを「Google製品間で共有される個人の知識ベース」と位置づけています。

注目すべきは、GeminiのノートブックがAI研究ツール「NotebookLM」と同期する点です。片方のアプリで追加したソースは自動的にもう一方にも表示されるため、調査から対話までを切れ目なく行えます。既存のNotebookLM利用者にとって移行コストは低く、業務での活用範囲が広がるでしょう。

提供は段階的に進みます。今週中にウェブ版でAI Ultra・Pro・Plusの有料プラン加入者に展開され、モバイル版や無料ユーザー向けには「数週間以内」に拡大される予定です。ビジネス利用ではまず有料プランで試し、運用定着を見極めるのが現実的です。

経営者エンジニアにとって、プロジェクトごとの資料と対話を一元化できる環境は、生産性向上に直結します。ChatGPT Projectsとの機能競争は、業務での生成AI活用をさらに加速させる契機となりそうです。

YouTubeがショート動画でAIアバター生成機能を開放

アバター作成の手順

ライブ自撮りで顔と声を登録
最大8秒のクリップ生成が可能
既存ショートへの差し替えも対応

利用制限と安全策

18歳以上かつチャンネル所有者限定
SynthIDC2PAで来歴を付与
3年間未使用で自動削除

競争環境の変化

Sora撤退の間隙を突く一手
Gemini基盤で生成AI機能を拡充

Google傘下のYouTubeは4月9日、ショート動画サービス「YouTube Shorts」で、クリエイター本人そっくりのAIアバターを自動生成できる新機能の提供を段階的に開始すると発表しました。自身の顔と声を再現したアバターを既存動画に差し込んだり、新しいクリップの主役として起用したりできます。生成AIの悪用が社会問題化するなか、プラットフォーム側が自ら制御可能な「ディープフェイク」を公式機能として取り込む、象徴的な動きと言えます。

アバター作成は単純なボタン操作ではなく、ライブ自撮りで顔と声を登録する工程を経ます。明るい照明、静かな場所、目線の高さを保つことが推奨されており、YouTubeは「本人のように見え、本人のように聞こえる」仕上がりを強調しています。完成したアバターは文章プロンプトから最大8秒の映像を生成でき、対象となる既存ショートへの組み込みも可能です。

一方で利用には厳しい制約が設けられています。アバターは原則として作成者本人の動画でのみ使用でき、リミックス可否はクリエイターが自ら制御します。削除権限は常に本人側にあり、3年間使われなかったアバターは自動的に破棄される仕組みです。全ての生成映像には視認可能な透かしに加え、SynthIDやC2PAといった来歴情報が付与されます。

提供対象は18歳以上で既存チャンネルを持つクリエイターに限定され、地域や時期を明示しないまま段階展開されます。YouTubeはすでに自動吹き替えやチャンネル分析チャットボットなど、Geminiを基盤とするAI機能を続々と追加しており、今回のアバター機能はその延長線上に位置づけられます。

注目すべきは競合の動きとの対比です。OpenAIは先月、動画生成アプリ「Sora」の運営終了を決めたばかりで、著作権問題やディープフェイク騒動、収益化の難しさが撤退の背景にあったと報じられています。Googleはその空白地帯に、クリエイター本人の同意と来歴管理を前提とした管理型アバターという形で切り込み、生成AI動画の主導権を握ろうとしています。

GoogleとIntel、AI基盤で多年提携を拡大

提携の中身

Xeon 6をGoogle採用
多年契約で関係強化
カスタムIPU共同開発継続
ASIC基盤IPUに集中

CPU争奪戦の背景

CPU不足が業界課題
GPU偏重からバランス型へ
Arm AGI CPU競争参入

GoogleIntelは4月9日、AIインフラ分野での多年にわたる提携を拡大すると発表しました。Google Cloudは引き続きIntel製Xeonプロセッサを採用し、最新のXeon 6をAI・クラウド推論用途に活用します。両社は2021年から続くカスタムIPUの共同開発も継続し、ASICベースの設計に注力する方針です。

Google Cloudは過去数十年にわたりIntel製Xeonプロセッサを使い続けてきました。今回新たに採用が明確化されたXeon 6は、生成AI時代のクラウド推論処理を支える基幹部品となります。長期にわたる信頼関係を軸に、両社は基盤構築のパートナーシップを一段と深めます。

提携のもう一つの柱が、カスタムIPUの共同開発です。IPUはCPUからネットワーク処理やデータ管理といった作業を引き受け、データセンター全体の効率を底上げします。2021年に始まったこの取り組みは、今後ASICベースの設計に焦点を絞って進められる予定です。

この拡大の背景には、業界全体を覆うCPU不足があります。モデルの開発や学習にGPUが使われる一方、完成したAIモデルの実行や推論、そしてインフラ全般の運用にはCPUが欠かせません。Intelのリップブー・タン最高経営責任者は「AIには加速器だけでなくバランスの取れたシステムが必要だ」と強調しています。

CPUへの回帰はGoogleIntelだけではありません。SoftBank傘下のArm Holdingsは先月、創業35年で初の自社設計チップとなるArm AGI CPUを発表しました。世界的なCPU不足を背景に、半導体各社の競争はAI基盤の中核部品へと広がっています。

独BFL、70人で画像生成AIの世界首位級に迫る

独発の急成長スタートアップ

評価額32.5億ドル到達
社員わずか70人体制
本社は独フライブルク近郊

大手との提携と技術力

AdobeCanva画像機能提供
Meta1.4億ドル契約締結
効率的な潜在拡散を採用

次の一手はフィジカルAI

年内にロボット公開予定
スマートグラス分野とも協議

ドイツの黒い森地方に本社を置く70人のAIスタートアップBlack Forest Labs(BFL)が、画像生成AIの分野でOpenAIGoogleに次ぐ世界トップ級の競争力を獲得しています。2025年12月には評価額32.5億ドル資金調達を実施し、AdobeCanvaといった大手クリエイティブ企業の画像生成機能を支える存在になりました。わずか5000マイル離れたシリコンバレーの巨人たちに、少人数チームで真っ向から挑む構図です。

提携先の顔ぶれも際立っています。同社はMicrosoftMetaxAIといった主要AI企業にも技術を供給し、2025年9月にはMetaと総額1.4億ドルの複数年契約を結びました。2024年にはイーロン・マスク氏率いるxAI画像生成Grok」を支える形で一躍有名になった一方、安全策の緩さが物議を醸し、提携は数カ月で終了した経緯があります。

近ごろxAIが再度ライセンス供与を打診したものの、BFLは混沌とした社風との協業は運用負荷が高すぎると判断し、今回は断ったと関係者は語ります。競合より資源が限られる同社は、まず粗い下絵を描き、その後に細部を描き込む潜在拡散(latent diffusion)と呼ばれる効率的な手法を磨いてきました。これが少人数でも一線級のモデルを量産できる理由です。

共同創業者アンドレアス・ブラットマン氏はWIREDに対し、「この手法のおかげで、競合の数分の一の資源で非常に強力なモデルを出せた」と語ります。HuggingFace上で最も多くダウンロードされているテキスト画像変換モデルの一角を占めるのも同社の特徴で、市場に出回る多くの画像AIが裏側でBFLの無料版モデルを利用している可能性が高いといいます。

創業者らは米サンフランシスコへの移転ではなく、故郷に近い独フライブルク周辺に本拠を構え続けることを選びました。「注意を引くものが少ない場所であることは、大きな強みになり得る」とブラットマン氏は述べ、集中できる環境こそが急成長の鍵だったと振り返ります。OpenAISoraを閉じTBPN買収に走るなど、米勢がフォーカスに苦しむ中での対照的な姿勢です。

BFLの野望は画像生成にとどまりません。同社は年内に、自社AIモデルを搭載したロボットを発表する計画を明らかにしました。スマートグラスロボット向けに技術提供するハードウェア企業とも協議中とされ、「視覚知性はコンテンツ生成を超えて広がる」とブラットマン氏は強調します。物理世界で行動するフィジカルAIへの進出が、次の競争軸となりそうです。

Overworld、Waypoint1.5公開、家庭用GPUで720p動作

家庭用GPUで動作

RTX3090〜5090対応
720p・60FPSで実時間生成
360pはノートPCも対応
Apple Silicon Mac対応予定

学習データ100倍

約100倍のデータで学習
フレーム間の冗長計算削減
ブラウザでも即時体験可能

Overworldは4月9日、実時間対話型の世界モデルWaypoint1.5を公開しました。家庭用GPUのRTX3090から5090で動作し、デスクトップで最大720p・60FPSの生成環境を実現します。データセンター級の計算資源に頼らず、手元のマシンで生成世界に踏み込める点が最大の特長です。

今回の刷新で最も大きな変化はアクセシビリティの向上です。高性能機向けの720p版に加え、ゲーミングノートPCなど幅広い機器で軽快に動く360p版を新設しました。近くApple Silicon搭載Macにも対応する計画で、裾野の拡大を狙います。

モデル品質も大幅に底上げされました。学習データ量は初代Waypoint比で約100倍に拡張され、環境の一貫性や動きの連続性が改善しています。さらにフレーム間の冗長な計算を削減する効率的な映像モデリング手法を導入し、応答性を高めました。

世界モデルの価値は映像の美しさだけでは測れません。ユーザーが動いても世界が破綻せず、即座に反応することこそが没入感の源泉だと同社は強調します。描画品質に偏重しがちな近年の潮流に対し、応答性と探索可能性を前面に押し出した形です。

体験手段は二つ用意されました。一つは公式ランタイムOverworld Biomeを使ったローカル実行で、新しいインストーラーにより数分で起動できます。もう一つはブラウザ上で即座に試せるOverworld Streamで、初期設定なしに触れられます。

推論ライブラリWorld Engineも提供され、十数種の公式・サードパーティ製クライアントを支えます。エンターテインメントや創作支援、シミュレーションなど、生成世界を活用するAIネイティブ環境の基盤としての広がりが期待されます。

GitHub3月障害報告、Copilotなど4件で性能劣化

4件の障害概要

キャッシュ障害で広範影響
Actions起動95%遅延
Copilot Agent認証障害
Teams連携通知不達

原因と対応策

キャッシュにkillswitch
Redis構成変更凍結
認証情報自動監視

GitHubは4月9日、2026年3月の可用性レポートを公開しました。同社は月内に4件の障害が発生し、github.com本体やAPI、Actions、CopilotMicrosoft Teams連携など主要サービスで性能が劣化したと明らかにしました。開発者ワークフローを混乱させたと認め、長期的な構造改修と短期的な緊急対応の双方を進める方針です。

3月3日の障害ではユーザー設定キャッシュ機構への修正展開が逆に全ユーザーのキャッシュを一斉失効させ、再計算の集中でレプリケーション遅延が連鎖しました。github.comのリクエスト失敗率は約40%、APIは約43%、Copilotも約21%に達しました。同社はロールバックで復旧させ、キャッシュ機構に緊急停止スイッチと監視を追加し、専用ホストへの移設を進めるとしています。

3月5日にはActionsのワークフロー起動が最大95%が5分以内に始まらず、平均30分遅延する障害が2時間55分続きました。原因は回復力強化のために投入したRedisロードバランサーの設定ミスで、内部通信が誤ったホストへ転送されました。同社はロールバック後に該当領域の変更を凍結し、設定伝播の自動検査や監視強化に取り組むとしています。

3月19日と20日にはCopilot Coding Agentが2度連続で停止し、認証情報の問題でデータストアに接続できなくなりました。ピーク時のエラー率は100%近くに達し、新規セッションの開始も既存セッションの閲覧もできない状態となりました。資格情報のローテーションで復旧しましたが、初回の是正が不完全で再発したため、自動監視と運用改善を実装しています。

3月24日には上流依存先の障害によってMicrosoft TeamsとTeams Copilot連携が劣化し、GitHubイベント通知が平均37.4%、ピーク90.1%で失敗しました。全Teams連携インストール先の約19%が通知を受け取れず、約2時間52分にわたって影響が続きました。同社は上流復旧まで待機する形で対応し、可観測性とランブックを更新して将来の復旧時間短縮を図るとしています。

一連の報告からは、共有基盤であるキャッシュやRedis、資格情報といった内部インフラの脆さが複数サービスに同時影響する構図が浮き彫りとなりました。GitHubは長期的なアーキテクチャ改修を継続しつつ、短期の監視強化やkillswitch整備で再発防止を急ぐ方針です。AI支援を含む開発基盤の安定性は利用企業の生産性にも直結するだけに、運用改善の進捗が注目されます。

Wiley、自律システム統治の新基盤ZTASPを公開

ゼロトラスト統治

ドローンやロボを統合運用
チップからクラウドまで常時検証
最小権限で多主体を制御

中核技術SRTA/SSTR

実行時保証で安全制約を強制
時空間推論文脈判断
劣化環境でも継続運用

実装段階と応用

TRL7で実運用検証済み
Saluki制御装置はTRL8到達

Wileyは2026年4月9日、IEEE Spectrumと連携し、アラブ首長国連邦のTechnology Innovation Instituteが開発した自律システム統治基盤ZTASPのホワイトペーパーを公開しました。ドローン、地上ロボット、センサー、人間オペレーターを一つのゼロトラスト体系に統合し、ミッション規模で安全かつ強靭な運用を可能にする狙いです。境界防御型の従来セキュリティが多主体のエッジ環境で限界を迎えるなか、常時検証と最小権限を核とした新しい統治の設計思想が示されました。

ZTASPの中核には、安全制約をリアルタイムで強制するSecure Runtime Assurance(SRTA)と、異機種システム間で文脈に応じた判断を可能にするSecure Spatio-Temporal Reasoning(SSTR)があります。SRTAは実行時監視や形式検証、安全ラッパーの知見を結合し、自律エージェントの逸脱を即座に抑止します。SSTRはドローンや地上ロボ、人間の動きを時空間的に捉え、状況適応的な協調を実現するとされています。

本プラットフォームはチップからクラウドまでを貫く全層保証アーキテクチャを採用し、エッジデバイスの計算制約、通信の劣化、分散ネットワークにおける信頼伝播といった設計上の制約に正面から取り組んでいます。これにより、通信が不安定な戦場や災害現場のような過酷環境でも、自律システムが安全に任務を継続できるよう設計されています。設計上のトレードオフを読者が理解できるよう、学習目標も明記されました。

開発はすでに概念設計を超え、ミッションクリティカル環境でTRL7レベルの運用検証を終えています。中核部品であるSaluki安全飛行制御装置はTRL8に達し、顧客システムへの搭載も始まっています。高信頼が求められる軍事・防衛分野での実装経験が、商用展開への現実味を与えている形です。

研究チームは、同様の保証課題が医療、交通、重要インフラなど民生分野にも広がっていると指摘します。自律エージェントが社会基盤に組み込まれるほど、単発の認証ではなく継続的な信頼評価が不可欠になるためです。経営者エンジニアにとっては、AI駆動の自律システムを事業に組み込む際の統治モデルを検討する重要な参照点となりそうです。

Take It Down Act初の有罪、逮捕後もAIヌード生成継続

初適用の有罪答弁

米オハイオ州の37歳男
被害者10人超に拡散
元交際相手らを標的
同法初の有罪認定

逮捕後も生成継続

スマホにAIツール124種
未成年の顔も合成
最大禁錮3年の量刑

米司法省は4月、オハイオ州コロンバス在住のジェームズ・ストラーラー被告(37)がTake It Down Act違反で有罪を認めたと発表しました。被害者は少なくとも10人に上り、同法が2025年に成立して以降初の有罪事例となります。被告はAIで生成した性的画像を元交際相手やその家族に送りつけ、サイバーストーキング罪などでも訴追されました。

捜査当局によると、被告は押収されたスマートフォンに24種類以上のAIプラットフォームと100以上のWebモデルをインストールし、同意のない親密画像(NCII)を数百から数千点生成していました。元交際相手の顔を父親との性行為場面に合成して母親や同僚に送付するなど、手口は極めて悪質です。未成年の男児の顔を成人の体に合成した画像も複数確認されました。

さらに被告は、被害者との復縁を迫る目的で画像を悪用していたとされます。裁判資料には、本物のヌード画像を送るよう脅迫し、レイプを仄めかす留守電を残したとの記載もあります。被害者を装ってポルノサイトに画像を投稿し、第三者にAI生成コンテンツを提供する行為も確認されました。

問題を深刻化させているのは、被告が逮捕後も生成行為を継続していた点です。児童性的虐待を扱うサイトに実在・合成の画像700点超を投稿し、「合法なもの何でも」を掲げる掲示板にも被害者母娘の画像を投稿していました。AIツールの容易な入手性が犯罪の連鎖を助長した形です。

被告はサイバーストーキング、児童の性的虐待を描いた卑猥な視覚表現の製造、デジタル偽造物の公開の各罪について有罪を認めました。Take It Down Actの下では、成人のNCII公開で最大2年未成年画像で最大3年の禁錮刑が科され得ます。量刑は今後の公判で決定されます。

本件は、生成AIを悪用した画像犯罪に対する米国の法的対応が実際に機能した試金石と言えるでしょう。一方で、多数のAIツールが個人端末で簡単に運用できる現状は、プラットフォーム側の責任や規制のあり方にも新たな課題を突きつけています。

Google教育AI講座が全米400校超に拡大

全米50州に拡大

参加校400超に到達
全米50州を網羅
無償提供の教育支援策

職業直結の認定証

ACE認定の大学単位付与
実務スキル重視のカリキュラム
雇用主ニーズに対応

各大学の導入事例

Texas A&M;学習祭開催
バージニア大が地元企業支援

Googleは9日、高等教育向け無償プログラム「Google AI for Education Accelerator」の参加機関が、1年足らずで全米50州の400校超に達したと発表しました。学生・教職員のAI活用力と職業直結スキルの育成を目的とし、大学の負担なく受講環境を提供します。アーカンソー大学、テキサス大学システム、バンダービルト大学など名門校が相次ぎ参画しており、全米規模での導入拡大が鮮明になっています。

中核教材となるのが「Google AI Professional Certificate」です。米国教育協議会(ACE)から大学単位の付与推奨を受けた初のAIプログラムの一つで、受講生は学位取得に向けた単位として認められる可能性があります。業界主要雇用主の意見を取り入れて設計されており、現場で直ちに役立つ実践スキルの習得を重視しています。

各大学は独自の展開を進めています。Texas A&M;大学システムは教職員向けに「AI Learnathon」を開催し、研修と実践ツールを同時に提供しました。バージニア大学では、認定証を取得した学生地域の中小企業と連携し、AI導入支援を通じて学びを実務に還元しています。

ミシガン大学は、学生・教職員に加え卒業生まで対象を広げ、Center for Academic Innovationを通じて認定証を提供しています。対象を在学者に限定しない姿勢は、生涯学習とリスキリング需要の高まりを映し出していると言えるでしょう。

今回の取り組みは、Googleが日常的にツールを使う600万人超の教育関係者を支援する長期戦略の一環です。認定非営利の大学は「grow.google/edu」から無償で参加申請が可能で、次世代の労働市場を見据えた人材育成競争がさらに加速しそうです。

Fitbit AI健康コーチ、日本含む37カ国に拡大

提供地域の拡張

37カ国で公開プレビュー
日本欧州主要国も対象
iOSAndroid両対応
無料・Premium双方で利用可

言語と機能強化

32言語に対応拡大
日本語・韓国語・中国語繁体を追加
VO2Maxを連携し心肺指標反映

Googleは2026年4月9日、Fitbitのパーソナル健康コーチの公開プレビューを日本を含む37カ国・32言語に拡大すると発表しました。対象はiOSAndroidのFitbitアプリ利用者で、無料版とPremium版のいずれも使えます。対象国のユーザーには今後数週間かけて順次ロールアウトされる予定です。

新たに追加される国には、日本ドイツ・フランス・イタリア・スペイン・ブラジルインド韓国・メキシコなどが含まれます。欧州を中心にオーストリアやベルギー、北欧・東欧諸国まで幅広くカバーし、アジアではインドネシアやマレーシア、台湾も対象に加わりました。これにより、英語圏に限定されていたAIコーチ体験が一気にグローバル展開へと進みます。

言語面では日本語や韓国語、繁体中国語、ブラジル系ポルトガル語、カナダ系フランス語など合計32言語に対応します。地域ごとの言語バリエーションまで細かく整備した点が特徴で、現地ユーザーが母国語で健康アドバイスを受け取れる体制が整います。

今回の更新では、従来「Cardio Fitness Score」と呼ばれていたVO2Max指標が公開プレビューに統合されます。心肺持久力のデータがコーチのアドバイス生成に組み込まれ、よりパーソナライズされた運動・回復提案が可能になります。ウェアラブル計測値とAI対話の結びつきが一段と強まる格好です。

Googleは健康分野でのAI活用を加速しており、今回の拡大はFitbitをAIヘルスケア基盤として世界規模で普及させる狙いがうかがえます。経営者やリーダー層にとっては、従業員の健康経営や生産性向上の観点からも、こうしたAIコーチ機能の進化が注目ポイントとなりそうです。

元Apple技術者、iPod Shuffle似AIボタン発表

製品概要

価格179ドルで予約開始
12月出荷のAI専用端末
押下時のみ音声応答

差別化戦略

常時録音せずプライバシー重視
1秒以内の即応設計
Humane Pinの失敗を反面教師

市場展望

スマホを補完する存在
OpenAI等と端末競争

米サンフランシスコで4月9日、Apple Vision Proの開発に携わった元Appleエンジニアのクリス・ノレット氏とライアン・バーゴイン氏が、生成AIチャットボットを内蔵したボタン型ウェアラブル端末「Button」を発表しました。Y Combinator傘下のスタートアップが手がける同製品は、iPod Shuffleを思わせるアルミ筐体に収められ、予約価格179ドル、出荷は12月を予定しています。押すだけで対話AIが起動し、音声や接続したイヤホン・スマートグラスを通じて応答する仕組みです。

最大の特徴はプライバシーと即応性の両立にあります。常時周囲を録音し続ける他のAIペンダント型デバイスとは異なり、Buttonはボタンを押した瞬間にのみ音声を取得します。ノレット氏は、気付かぬうちに会話を記録されていた自身の経験を引き合いに「意識せず録音されるのは気味が悪い」と語り、利用者の同意を前提とする設計思想を強調しました。

応答速度も開発陣が重視したポイントです。2024年に発売されたHumane AI Pinは返答の遅さが酷評され、発売約1年で事業終了に追い込まれました。これに対しButtonはおよそ1秒以内に回答を返すよう設計され、再度ボタンを押せば発話を即座に中断できます。デモでは周辺のサンドイッチ店検索といった日常的な問い合わせが滞りなく処理されたといいます。

デザイン面でもApple流の美意識が色濃く反映されています。ノレット氏は「Humane Pinはつけるとやや野暮ったい。一方でiPod Shuffleはクールだった」と述べ、同機を出発点に磨き上げた経緯を説明しました。ウェアラブルとしての着用だけでなく、ポケットや鞄、車のグローブボックスに入れて使う用途も想定しているとのことです。

市場の競争環境は厳しさを増しています。OpenAIがジョニー・アイブ氏と組んでAI専用ハードウェアを準備するなど、AI時代の新端末を巡る開発競争は活発化しています。ノレット氏はiPhoneを置き換える意図はないとしつつ、「既存端末は音声AI以前の時代に設計されたもの。新時代のコンピューターは姿が変わるかもしれない」と述べ、スマートフォンを補完する立ち位置を狙う考えを示しました。

MIT哲学者、AI時代も労働は不可欠と主張

労働は価値の源泉

労働は必要かつ価値ある営み
週短縮・廃止は万能解ではない
社会的承認と共同体形成の場

知恵の格差是正

科学者と哲学者の分業は限界
開発と倫理評価を同時並行
サガンの警句を教育に反映

倫理教育の刷新

MIT技術倫理講座を主導
AI時代の人間像を再定義

MIT哲学科のNC技術倫理ポスドク研究員ミハウ・マスニー氏が2026年4月9日、AI時代における労働の価値を論じる研究成果を公表しました。マスニー氏は労働を単なる収入源ではなく、卓越性の追求や社会貢献、共同体形成の場と位置づけ、週労働時間の短縮や労働そのものの撤廃は必ずしも人々の幸福に直結しないと主張しています。

同氏は「労働は必要であり、かつ積極的に価値がある」と述べ、AIによる自動化で労働を完全に廃止した未来では人々の生活がむしろ損なわれうると指摘しました。望ましいのは労働と余暇の最適な組み合わせを見いだすことであり、極端な労働削減論への警鐘と受け止められます。

マスニー氏はオックスフォード大やプリンストン大で学んだ価値理論・技術倫理専門家で、人類の将来世代への義務やAI開発の存在論的リスクを研究対象としてきました。MITでは学部生向けに「24.131 技術倫理」を教え、ディープフェイク倫理的・政治的課題を扱う学生研究グループも指導してきたといいます。

同氏が強調するのは、科学者・技術者と哲学者・法律家との間に横たわる「知恵の格差」の解消です。従来は技術者が発明し、哲学者や法律家が後から評価・規制する分業体制が取られてきましたが、技術の進展速度はその枠組みを成立困難にしていると分析しています。

背景にはカール・セーガンが警告した「知恵を伴わない力」の危険性への共鳴があります。マスニー氏は「科学者が法律家や哲学者のように自らのプロジェクトの帰結を考え、その逆も実現する」教育の必要性を訴え、AI開発の最上流から倫理的思考を組み込む重要性を説きました。

NC技術倫理フェローシップはAI投資会社プリンシパル・ベンチャー・パートナーズの創業者ユン・ソンイ氏らの支援により2021年に設立され、MIT倫理研究と対話を推進してきました。マスニー氏は春学期でフェローシップを終え、2026年秋からコロラド大ボルダー校で教鞭を執り、労働の価値に関する研究を続ける予定です。

親イラン集団、AIレゴ動画でトランプ揶揄拡散

AI動画で世論工作

AIレゴ風動画を量産
開戦以降十数本公開
主要SNSで数百万再生

制作集団の正体

名称はExplosive Media
政府関与の疑い浮上
Spotifyで楽曲配信

広がる情報戦

米文化への深い理解
イラン大使館もAI動画投稿

親イラン系の若手活動家集団「Explosive Media」が、AIで生成したレゴ風アニメ動画を通じて、トランプ米大統領を揶揄する情報発信を強めています。2026年2月の開戦以降、十数本の動画を投じ、主要SNSで数百万回の再生を集めました。米誌WIREDが4月9日に報じました。

最新作は、トランプ氏が「文明丸ごと消し去ることはしない」と表明した直後に公開されました。湾岸諸国首脳と結託するトランプ人形や、「石器時代に戻せ」と書かれた赤いボタンを押すイラン当局者が登場し、停戦条件として示された10項目の提案にも触れる作りとなっています。末尾では白旗を手にタコスを食べる姿を描き、「Trump always chickens out」の頭文字「TACO」を揶揄の軸に据えています。

同集団は2025年にYouTubeで政治評論チャンネルとして出発しましたが、再生数は伸び悩みました。しかし2026年2月以降、AIツールを駆使して脚本・制作・編集まで一貫して手掛けるレゴ風動画に路線転換したところ、TikTokやX、Instagramで急速に拡散しました。使用ツールの詳細は明かしていません。

集団はイラン政府との関係を否定しますが、ほぼ遮断されたイラン国内でインターネット接続を維持できている点から、専門家は関与を疑っています。戦略対話研究所のモスタファ・アヤド氏は、「米国民の関心や不満のツボを巧みに突き、紛争をイラン側の視点で手軽に理解させている」と分析します。集団はイラン系メッセージチャンネルで250万超のフォロワーを持つと自称します。

イラン政府系アカウントも情報戦でAIを積極的に活用しています。ジンバブエ大使館はホルムズ海峡の鍵を失ったと投稿し、チュニジア大使館はトランプ氏が白旗を掲げて専用機から降りるAI動画を拡散しました。アヤド氏は「今回の紛争で、レゴ動画ほど語られ再拡散されたコンテンツはない」と指摘し、AIとユーモアを組み合わせた新たなプロパガンダの威力を警告しています。