Anthropicが未公開モデルMythosでサイバー防御連合を始動

Mythos Previewの能力

汎用モデルながら数千件のゼロデイ脆弱性を自律発見
OpenBSDの27年前の欠陥やFFmpegの16年前のバグを検出
Linuxカーネルで権限昇格の攻撃チェーンを自動構築
CyberGymベンチマーク83.1%を達成

Project Glasswingの体制

アマゾン・アップル・マイクロソフト12社が参加
最大1億ドルの利用クレジットを提供
オープンソース財団へ400万ドルを寄付
一般公開せず防御目的に限定提供

業界への影響と課題

同等の能力が6〜24か月で敵対者にも拡散する可能性
大量の脆弱性報告による保守者への負荷が懸念

Anthropicは2026年4月7日、同社がこれまでに開発した中で最も強力とされるフロンティアモデル「Claude Mythos Preview」のプレビューを公開し、サイバーセキュリティの業界連合「Project Glasswing」を立ち上げました。このモデルはサイバーセキュリティ専用に訓練されたわけではありませんが、高度なエージェントコーディング推論能力により、主要なOSやウェブブラウザを含む広範なソフトウェアで数千件の深刻なゼロデイ脆弱性を人間の介入なしに自律的に発見しました。

具体的な成果として、セキュリティが最も堅牢とされるOpenBSDで27年間見過ごされていたリモートクラッシュの脆弱性を発見しました。また、動画処理ライブラリFFmpegでは自動テストツールが500万回実行しても検出できなかった16年前のバグを特定しています。さらにLinuxカーネルでは複数の脆弱性を連鎖させ、一般ユーザー権限からシステム全体の制御権を奪取する攻撃を自動構築しました。

Project Glasswingにはアマゾン、アップル、マイクロソフト、グーグル、Nvidia、CrowdStrikeなど12社がパートナーとして参加し、さらに約40の組織がモデルへのアクセス権を得ます。Anthropicは最大1億ドルの利用クレジットを提供するほか、Linux FoundationとApache Software Foundationに計400万ドルを寄付します。モデルの価格は入力100万トークンあたり25ドル、出力100万トークンあたり125ドルに設定されています。

Anthropicは同モデルの攻撃転用リスクが高いとして一般公開を見送り、防御目的のパートナーにのみ提供する方針です。脆弱性の開示においては、専門のトリアージ体制を構築し、パッチ提供後45日間の猶予期間を設けています。一方、同社のフロンティアレッドチームリードは、同等の能力が6〜24か月以内に敵対者にも広まる可能性を認めており、防御側の時間的猶予は限られていると警告しています。

なお、Mythos Previewの存在は3月のデータ漏洩で発覚しており、その後もClaude Codeのソースコード流出などセキュリティ上の問題が相次いだことから、Anthropic自身の運用体制への信頼性が問われています。同社は年間売上が300億ドル規模に成長し、2026年10月にも上場を検討していると報じられており、Project Glasswingは事業戦略としても重要な位置づけにあります。

企業AIの優位性がモデルからデータ管理基盤へ移行

データ管理が競争力の源泉に

フロンティアモデルの性能が収斂
非構造化データの統治が差別化要因に
記録システムとの統合が信頼性の鍵

権限管理とエージェントAI

権限認識型アクセスが必須条件
監査証跡つきのコンプライアンス対応
コンテンツ基盤がAI制御層へ進化

非構造化データの構造化活用

大規模言語モデルで汎用的に構造化
エージェントによる多段階推論の実現

フロンティアAIモデルの性能が収斂するなか、企業AIにおける競争優位がモデルそのものから、モデルが安全にアクセスできるデータの管理体制へと移行しています。VentureBeatの報道によると、Boxの幹部らは、契約書・案件ファイル・製品仕様書などの非構造化データをいかに整理・統治し、AIに提供するかが今後の勝敗を分けると指摘しています。

企業AIが信頼性を確保するためには、記録システムとの統合が不可欠です。権限管理やバージョン管理が組み込まれた正式なリポジトリと接続されていないAIツールは、出力の追跡が困難で監査にも耐えられません。従業員が個人アカウントに機密文書をアップロードして独自のAIワークフローを構築する「シャドーAI」のリスクも顕在化しています。

AIが自律的に複数ステップのタスクを実行するエージェント型AIの台頭により、権限認識型アクセスの重要性はさらに高まっています。HIPAAやFedRAMP High、SOC 2などの規制フレームワークでは、誰が・何がデータにアクセスしたかの監査証跡とポリシー適用が求められます。BoxのCTOであるBen Kus氏は、エージェントのセッション記録も同じ暗号化と制御下に置く必要があると述べています。

コンテンツ管理プラットフォームは単なる保管庫から、モデル・エージェント・企業データの間に位置するAI制御層へと進化しています。コンテンツ・権限・監査証跡・アプリケーションアクセスを単一のプラットフォームで管理することで、ガバナンスがコンテンツ自体に紐づき、企業AIの安全なスケーリングが可能になります。

汎用的な大規模言語モデルの登場により、契約書やフォームから構造化データを自動抽出する仕組みが実用化されています。Boxのエージェント機能では、企業コンテンツに直接基づいた多段階推論とタスク実行が可能で、従来は人手による調整が必要だったワークフローの自動化が進んでいます。成果を出している企業は、AIを記録システムに接続し、アクセスを統治し、出力を信頼できる運用基盤を構築しています。

Anthropicがクラウド計算能力を大幅拡大、3.5ギガワット規模

計算資源の拡大

3.5ギガワットの計算能力確保
GoogleとBroadcomとの提携拡大
2027年に新容量が稼働開始
米国内にインフラの大半を設置

急成長する事業

年間売上高が300億ドルに到達
100万ドル超の法人顧客が1000社以上
シリーズGで3800億ドルの企業評価額
米国インフラに500億ドルの投資計画

米AI研究企業Anthropicは2026年4月7日、GoogleおよびBroadcomと新たな計算能力拡大に関する契約を締結したと発表しました。同社のAIモデル「Claude」への需要が急増していることを受け、GoogleクラウドTPU(テンソル処理ユニット)の利用をさらに拡大するものです。

今回の契約は、2025年10月に締結された1ギガワット超の計算能力契約の拡張にあたります。Broadcomが米証券取引委員会に提出した書類によると、新たな契約では3.5ギガワットの計算能力が含まれており、2027年から順次稼働する予定です。計算インフラの大部分は米国内に設置され、同社が掲げる500億ドル米国計算インフラ投資計画の一環となります。

AnthropicのKrishna Rao最高財務責任者は「顧客基盤の指数関数的な成長に対応し、Claudeがフロンティアを定義し続けるために、過去最大規模の計算投資を行う」と述べました。同社は2026年2月に300億ドルのシリーズG資金調達を完了し、企業評価額は3800億ドルに達しています。

事業面では、同社の年間経常収益が300億ドルに到達しました。これは2025年末時点の90億ドルから大幅な増加です。年間100万ドル以上を支出する法人顧客は1000社を超えており、米国防総省によるサプライチェーンリスク指定にもかかわらず、企業顧客からの需要が成長を牽引しています。

Amazon、S3をAIエージェントのファイルシステムに

オブジェクトとファイルの統合

S3バケットをローカルマウント
データ移行・複製が不要に
EFS技術で完全なファイル操作を実現

エージェント開発の課題解消

セッション状態消失の問題を解決
数千の同時接続に対応
共有ディレクトリで複数エージェント連携

FUSE方式との違い

メタデータ不整合の障害を排除
ファイルとオブジェクトの同時アクセス

Amazon Web ServicesAWS)は、オブジェクトストレージS3のバケットをAIエージェントのローカル環境に直接マウントできる新機能「S3 Files」を発表しました。コマンド1つでS3上のデータをファイルシステムとして利用でき、データの移行や複製は不要です。すでに主要なAWSリージョンで利用可能となっています。

従来、S3はAPIベースのオブジェクトストレージであり、ファイルパスやディレクトリといったファイルシステムの概念を持ちませんでした。AIエージェントはローカルのファイル操作ツールに依存するため、S3上のデータを使うにはダウンロードが必要でした。しかし、エージェントコンテキストウィンドウが圧縮されるとセッション状態が失われ、ダウンロード済みファイルの情報も消えてしまうという問題がありました。

S3 Filesは、AWSElastic File System(EFS)技術をS3に直結させ、完全なファイルシステムセマンティクスを提供します。従来のFUSE(Filesystems in USErspace)方式とは異なり、ファイルAPIとS3オブジェクトAPIの両方から同一データに同時アクセスできます。AWSのVP兼ディスティングイッシュドエンジニアのAndy Warfield氏は、社内でKiroやClaude Codeを使う際にもこの課題が発生していたと明かしています。

マルチエージェント環境では、数千のコンピュートリソースが同一のS3ファイルシステムに同時接続でき、読み取りスループットは毎秒テラバイト級に達するとAWSは説明しています。エージェント間の状態共有は、サブディレクトリやノートファイルといった標準的なファイルシステム規約で実現されます。

アナリストからの評価も高く、GartnerのJeff Vogel氏は「S3 Filesはオブジェクトとファイルストレージ間のデータ移動を排除し、データコピーなしで共有の低遅延ワークスペースに変える」と指摘しています。IDCのDave McCarthy氏は「エクサバイト級のバケットをローカルドライブのように扱える」と述べ、エージェントの自律的な運用速度を大幅に向上させると評価しました。

AIシステムの「静かな障害」が新たな信頼性課題に

従来監視の限界

稼働率や遅延では検知不能な障害の増加
自律システムの判断が徐々に目的から逸脱
コンポーネント正常でも全体結果が誤る構造
ダッシュボードは正常でも出力が劣化

行動制御という新概念

監視だけでなく制御層の必要性を提唱
産業分野の監督制御手法をAIに応用
出力の傾向変化や行動ドリフトを追跡
リアルタイム介入で障害を早期修正

米国電気電子学会(IEEE)の技術誌IEEE Spectrumは2026年4月7日、AIシステムがクラッシュせずに静かに障害を起こす問題について解説する記事を公開しました。自律的に動作するAIシステムでは、すべての監視指標が正常を示しているにもかかわらず、出力が徐々に誤った方向へ逸脱する「静かな障害」が増えていると指摘しています。

記事では具体例として、金融アナリスト向けの規制情報要約AIを挙げています。文書取得・要約生成・配信のすべてが技術的には正常に機能しているものの、更新された文書リポジトリが取得パイプラインに追加されないまま、古い情報に基づく要約を出し続けるケースです。アラートは一切発生せず、外部からはシステムが正常稼働しているように見えます。

従来のオブザーバビリティ(可観測性)は稼働率・レイテンシ・エラー率といった指標に依存しており、個々のリクエスト処理の正否を判定するには有効です。しかし自律型AIシステムでは、連続的な推論ループの中で各判断が次の行動に影響を与えるため、単一の計算結果だけでは正確さを評価できないと論じています。

解決策として記事が提唱するのは「行動制御」という考え方です。航空機の飛行制御や電力網運用で使われてきた監督制御システムをAIに応用し、出力パターンの変化や行動ドリフトを継続的に監視します。許容範囲を逸脱した場合には動作の制限や人間によるレビューへの回付など、リアルタイムで介入する仕組みを構築すべきだとしています。

筆者は、AIシステムの信頼性に対する工学的思考の転換が必要だと結論づけています。コンポーネントの正常動作を保証するだけでなく、システム全体の行動が目的と整合し続けているかを能動的に監視・制御する手法が、クラウド基盤・ロボティクス・大規模意思決定システムなど多くの領域で求められるようになると述べています。

LangChainが非同期サブエージェント搭載のDeep Agents v0.5公開

非同期サブエージェント

バックグラウンド実行でブロック解消
タスクIDによる非同期管理
実行中の指示追加や軌道修正が可能
異種モデル・ハードウェアへの委任に対応

Agent Protocolの採用

スレッドとランのモデルが合致
LangGraph Platformと共通仕様
A2AやACPとの比較検討を経て選定

マルチモーダル対応の拡張

PDF・音声動画ファイルの読み取り追加

LangChainは2026年4月7日、AIエージェントフレームワーク「Deep Agents」のバージョン0.5をPython版・JavaScript版の両方でリリースしました。最大の新機能は非同期サブエージェントで、メインエージェントがバックグラウンドでリモートエージェントにタスクを委任し、並行して他の作業やユーザーとの対話を続けられるようになります。

従来のインラインサブエージェントは、実行中にスーパーバイザーの処理ループをブロックする制約がありました。短時間のタスクでは問題になりませんでしたが、深いリサーチや大規模コード分析など数分単位の作業ではボトルネックとなっていました。非同期サブエージェントはタスクIDを即座に返し、独立したリモートサーバー上で実行されるため、この制約を解消します。

通信プロトコルにはLangChain独自のAgent Protocolが採用されました。スレッドとランを軸とした設計が非同期タスクモデルと自然に適合し、サブエージェントはやり取りを跨いで状態を保持できます。GoogleのA2AやACPも検討されましたが、非同期モデルとの適合性や反復速度の観点からAgent Protocolが選ばれています。

マルチモーダル対応も拡充され、従来の画像に加えてPDF、音声動画などのファイル形式が読み取り可能になりました。既存のread_fileツールをそのまま使い、拡張子からファイル種別を自動判別する仕組みです。対応するモダリティは使用する基盤モデルに依存し、モデルプロファイルを通じてプログラム的に確認できます。

LLM経由の流入、コンバージョン率30〜40%も企業の対応遅れ

AEO時代の到来

AIエージェント検索・要約・行動を代行
引用されるか」が新たな指標に
SEOの最適化対象がランキングから回答内での言及へ移行

企業が取るべき対策

構造化データとFAQスキーマの整備
RedditYouTubeでのブランド存在感強化
LLMに意味的に理解される宣言的コンテンツの作成
独自データや専門家の知見による権威性の確立

AIエージェントがウェブ検索を代行する時代の到来により、企業のデジタルマーケティング戦略に根本的な転換が求められています。従来のSEOはキーワードやランキングを重視していましたが、アンサーエンジン最適化(AEO)と呼ばれる新たなパラダイムでは、AIが回答を生成する際にコンテンツが引用・選択されるかどうかが成否を分けます。コンサルティング企業Northwest AI Consultingの調査では、LLM経由の流入はコンバージョン率30〜40%に達しており、SEOや有料SNS広告を大きく上回っています。

実務の現場では、AIエージェントの活用が急速に広がっています。Northwest AI ConsultingではClaude Skillsを営業プロセスに組み込み、見込み客の調査にかかる時間を1時間からわずか数分に短縮しました。フィンテック企業Trustlyのデータサイエンスマネージャーも、技術的な調査においてはエージェントがほぼ従来の検索を置き換えたと述べています。

企業がAEO時代に対応するための具体策として、専門家は複数のアプローチを推奨しています。SEO企業Visibility Labsは、Redditでの積極的な参加とYouTubeでのプレゼンス構築を特に重視しています。YouTubeChatGPTGoogle AI製品において最も引用頻度の高いドメインであり、AI可視性との相関が最も強いとされています。

一方で、過度な危機感は不要だとする見方もあります。Info-Tech Research GroupのShashi Bellamkonda氏は、GoogleEEAT(経験・専門性・権威性・信頼性)フレームワークに沿った質の高いコンテンツを制作している企業は、AI検索でも十分に引用される立場にあると指摘しています。重要なのは、LLMがコンテンツをチャンク化・埋め込み・意味検索する過程で内容が正しく伝わるよう、宣言的で文脈に依存しない記述を心がけることです。

中国Z.aiがGLM-5.1をMITライセンスで公開

モデルの技術的特徴

7540億パラメータのMoEモデル
最大8時間の自律作業に対応
1700回超のツール呼び出しが可能
階段状の最適化パターンを実現

ベンチマークと価格戦略

SWE-Bench Proで58.4を記録
Opus 4.6やGPT-5.4を上回る成績
API価格は入力100万トークン1.40ドル
オープンソースと有料版の二段構え

中国のAIスタートアップZ.ai(智譜AI)は2026年4月7日、大規模言語モデルGLM-5.1MITライセンスのオープンソースとして公開しました。7540億パラメータのMixture-of-Expertsモデルで、単一タスクに対して最大8時間の自律的な作業が可能です。Hugging Faceからダウンロードでき、商用利用も許可されています。

GLM-5.1の最大の技術的特徴は、長時間にわたる目標整合性の維持です。従来のモデルが数十ステップで性能が頭打ちになるのに対し、GLM-5.1は1700回以上のツール呼び出しを経ても有効な最適化を継続します。Z.aiはこれを「階段パターン」と呼び、漸進的な調整と構造的なブレークスルーが交互に現れる最適化プロセスだと説明しています。

ベンチマークでは、実世界のGitHub問題を解決するSWE-Bench Proで58.4を達成し、GPT-5.4の57.7やClaude Opus 4.6の57.3を上回りました。VectorDBBenchでは655回の反復と6000回超のツール呼び出しを経て、毎秒21500クエリを達成しています。これはOpus 4.6の最高記録の約6倍にあたります。

価格面では、APIが入力100万トークンあたり1.40ドル、出力が4.40ドルに設定されています。サブスクリプションは四半期27ドルのLiteから216ドルのMaxまで3段階を用意しています。一方、先月公開された高速版のGLM-5 Turboはプロプライエタリのままで、オープンソースと有料製品を組み合わせたハイブリッド戦略を展開しています。

開発者コミュニティからは好意的な反応が寄せられており、従来1週間かかっていた作業が2日で完了したという報告もあります。Z.aiは2026年初頭に香港証券取引所に上場し、時価総額は約528億ドルに達しています。同社はAI競争の次の焦点が推論速度ではなく自律的な作業時間になると位置づけており、エージェント型AIの新たな方向性を示しています。

IntelがマスクのTerafab半導体工場に参画

Terafab計画の全容

Intelがテキサス州のTerafab建設に参画
SpaceXTesla向けAIチップを製造
年間1テラワットの演算能力が目標
Intel株価は発表後3%超上昇

Intelのパッケージング戦略

マレーシアで先端パッケージング施設を拡張
ファウンドリ事業の大型顧客獲得へ
アリゾナでも2工場を建設中
TSMCCoWoS技術に対抗

半導体大手Intelは2026年4月7日、イーロン・マスク氏が主導するAIチップ製造プロジェクト「Terafab」への参画を発表しました。Terafabはテキサス州オースティンに建設予定の大規模半導体工場で、マスク氏が率いるSpaceXTeslaの2社にAIチップを供給する計画です。Intelは「超高性能チップの設計・製造・パッケージングを大規模に行う能力で、年間1テラワットの演算能力を目指すTerafabの目標達成を加速させる」とX上で表明しました。

マスク氏は2026年3月にSpaceXTeslaの共同プロジェクトとしてTerafabを発表していましたが、半導体製造の経験を持たない両社がどのように工場を建設するかが大きな疑問でした。自動運転車やヒューマノイドロボット、宇宙データセンターなどの構想を支えるAIチップの確保は、マスク氏にとって喫緊の課題となっています。

Intelの参画により、工場建設の実務は同社が担う見通しです。Intelはかつて米国最大の半導体製造企業でしたが、NvidiaやAMDに先端プロセッサ開発で後れを取り、ファウンドリ事業の立て直しを進めています。SpaceXTeslaという大型顧客の獲得は、同事業にとって大きな追い風となります。Intel株は発表当日、前日比約2.9%高の52.28ドルで取引されました。

一方、Intelは先端チップパッケージング分野でも積極的な投資を進めています。マレーシア・ペナンではチップ組立・検査施設の拡張を開始し、アリゾナ州でも200億ドル規模の2工場建設が進行中です。ファウンドリ事業を率いるナガ・チャンドラセカラン氏は、先端パッケージング技術がAI時代の半導体製造において決定的な役割を果たすとの見方を示しています。TSMCのCoWoSやSoICといった技術に対抗し、Intelはパッケージング能力を競争力の柱に据える方針です。

Google AI Overviewsの回答、10回に1回は誤り

精度調査の結果

正答率約91%、誤答率約10%
SimpleQA評価で4000問超を検証
Gemini 3更新後に精度6ポイント改善
毎日数千万件の誤回答が発生と推計

誤回答の具体例

引用元に記載のない情報を回答
矛盾する情報から誤った方を選択
存在する事実を「存在しない」と断言

2026年4月7日、ニューヨーク・タイムズはAIスタートアップOumiと協力し、Google検索AI Overviews機能の精度を大規模に調査した結果を公開しました。OpenAIが2024年に公開したSimpleQAと呼ばれる4000問超の事実確認ベンチマークを用いて検証したところ、正答率は約91%であることが判明しました。

AI Overviewsは2024年の提供開始以降、不正確な回答が問題視されてきました。前世代のGemini 2.5搭載時には正答率が85%にとどまっていましたが、2026年1月のGemini 3へのアップデートにより91%まで改善しています。それでも約10%の誤答率は、Google検索規模を考えると毎時数百万件の誤った情報が配信されていることを意味します。

調査では具体的な誤回答の事例も報告されています。ボブ・マーリーの旧宅が博物館になった年を尋ねた質問では、引用したウィキペディアに矛盾する2つの年が記載されており、AI Overviewsは誤った方を選択しました。また、ヨーヨー・マのクラシック音楽殿堂入りについては、引用元に記載があるにもかかわらず「そのような殿堂は存在しない」と回答しました。

この調査結果は、AI搭載の検索機能が急速に普及する中で、生成AIの事実精度が依然として大きな課題であることを浮き彫りにしています。正答率91%は改善傾向にあるものの、数十億件規模の検索に適用される以上、誤情報の絶対量は無視できない水準にあります。

Arceeが新推論モデルTrinity公開、中国製AIへの代替狙う

少人数で大規模モデル開発

26人体制で4000億パラメータのLLM構築
資金は2000万ドルの限られた予算
新モデル「Trinity Large Thinking」を公開
Apache 2.0ライセンスで完全オープンソース

中国製モデルへの対抗

西側企業に中国製AI不要の選択肢を提供
オンプレミスでの自社運用にも対応
OpenClawで人気モデルの一つに成長
MetaLlama 4とは異なる真のOSSライセンス

米国の小規模スタートアップArceeが、新たな推論モデルTrinity Large Thinking」を公開しました。同社はわずか26人の従業員と2000万ドルの予算で、4000億パラメータの大規模言語モデルをゼロから構築しています。CEOのMark McQuade氏はTechCrunchに対し、非中国企業としては史上最も高性能なオープンウェイトモデルだと述べています。

Arceeの狙いは、米国や西側諸国の企業が中国製AIモデルを使う必要をなくすことにあります。中国製モデルは高い性能を持つ一方で、データが中国政府の手に渡るリスクが指摘されています。Arceeのモデルはダウンロードして自社環境で運用できるほか、クラウド経由のAPI利用も可能です。

同社のモデルはAnthropicOpenAIのクローズドモデルには性能面で及ばないものの、大手企業の方針変更に左右されない利点があります。実際、Anthropicが先週OpenClawユーザーに追加課金を求めたことを受け、ArceeのモデルはOpenRouterのデータによるとOpenClawで人気の高いモデルの一つとなっています。

ライセンス面でもArceeは差別化を図っています。MetaLlama 4は真のオープンソースとは言えないライセンス問題が指摘されていますが、ArceeのTrinityシリーズはすべてApache 2.0ライセンスで公開されており、商用利用を含め制約のない形で提供されています。

富裕層がVC経由せずAI企業へ直接投資を加速

直接投資の急増

2月のファミリーオフィス直接投資41件
83%がAIを最重要戦略と回答
VC仲介を省き経営参画も増加
自らAI企業を創設する動きも拡大

集中投資の戦略

Arena社がPositronに2.3億ドル出資
年間数件の厳選投資で取締役席確保
第三者による技術検証を徹底
分散投資ではなく一点集中の方針

AIブームを背景に、ファミリーオフィスや富裕層がベンチャーキャピタルを介さずAIスタートアップへ直接投資する動きが加速しています。投資顧問会社Arena Private Wealthの創業者ミッチ・スタイン氏は、企業が長期間非公開のまま成長しIPOが減少するなか、上場前の段階で大きなリターンが生まれていると指摘しました。同氏は「AIへのエクスポージャーを持たないことこそ最大のリスクだ」と述べています。

BNY Wealthの調査によると、ファミリーオフィスの83%が今後5年間でAIを最重要戦略と位置づけており、半数以上がすでに投資を通じてAIへのエクスポージャーを持っています。2026年2月には41件の直接投資が行われ、ローレン・パウエル・ジョブズ氏のEmerson CollectiveによるWorld Labs投資など著名な事例が相次ぎました。

一部のファミリーオフィスはさらに踏み込み、自らAI企業をインキュベートしています。ジェフ・ベゾス氏ロボティクス企業のCEOに就任し、初回調達で62億ドルを集めた事例はその象徴です。元Silicon Labs CEOのタイソン・タトル氏もAI製造スタートアップCircuitを共同創業し、自身のファミリーオフィスから500万ドルを出資しました。

Arena Private Wealthは2026年2月にAIチップスタートアップPositronの2億3000万ドルのラウンドを共同リードし、取締役席を獲得しました。同社は年間数件の直接投資に限定し、ポートフォリオ全体のリターン管理ではなく個別案件ごとに成功を追求する集中型の投資戦略を採用しています。第三者の技術検証やArmの出資参加などを投資判断のシグナルとして重視しており、創業者との強い利害一致を強みとしています。

UberがAmazon独自AIチップの採用を拡大

契約拡大の内容

Graviton利用の拡大決定
AI半導体Trainium3の試験導入
AWS上でライドシェア機能を強化
OracleGoogleからの移行が背景

クラウド競争への影響

AWSOracleの主要顧客を獲得
自社設計チップが差別化要因に
AnthropicOpenAIAppleも採用済み
Trainiumは数十億ドル規模の事業へ成長

Amazonは2026年4月7日、配車サービス大手UberAWSとのクラウド契約を拡大し、自社設計チップの利用を増やすと発表しました。Uberは低消費電力のARMベースCPU「Graviton」の利用を拡大するとともに、Nvidiaに対抗するAI半導体Trainium3」の試験運用を新たに開始します。ライドシェア関連機能の多くをAWS上で稼働させる方針です。

Uberは2023年にオンプレミスのデータセンターからクラウドへ移行する方針を打ち出し、OracleおよびGoogle Cloudと大型契約を締結していました。特にOracle Cloud上ではAmpere製ARMチップを活用し、x86中心だった環境からの転換を進めていました。今回のAWS契約拡大は、こうしたマルチクラウド戦略の中でAmazon独自チップの競争力が評価された結果といえます。

この契約はAWSにとって、Oracleの主要顧客を引き寄せた象徴的な成果です。Oracleは2024年末にチップ設計企業Ampereの持ち分をSoftBankに売却し、自社でのチップ設計から撤退しています。一方のAWSTrainiumを軸に独自半導体戦略を推進しており、クラウド各社の差別化競争が激化しています。

AWSの独自チップを採用する大手企業は増え続けており、AnthropicOpenAIAppleもすでにTrainiumの利用を開始または拡大しています。AmazonのCEOアンディ・ジャシー氏は2025年12月、Trainiumがすでに数十億ドル規模の事業に成長していると述べており、Nvidiaに依存しないAIインフラの選択肢として存在感を高めています。

AI-RANが企業エッジの自律運用基盤に進化

AI-RANの三層構造

RAN向けAIでネットワーク運用を最適化
RAN上AIでエッジ推論ロボティクスを実現
RAN統合AIで新事業モデルを創出

エッジ推論と通信統合

ISACで通信とセンシングを一体化
工場・病院でサブメートル精度の資産追跡
分割推論でデバイス負荷を軽減

今が投資の好機

5G展開済み・6G標準未確定の空白期
ソフトウェア基盤で参入障壁が低い

AI-RAN(人工知能無線エリアネットワークは、無線インフラを受動的なデータ伝送路から能動的な計算基盤へと転換する新たなアーキテクチャです。Booz Allen上級副社長のChris Christou氏とCerberus Operations Supply Chain FundのShervin Gerami氏がVentureBeatの取材に応じ、AI-RANが製造業や物流、医療、スマートインフラなど幅広い産業でエッジAIと自律運用を実現する基盤になると語りました。

AI-RANには三つの段階があります。第一の「AI for RAN」はネットワーク運用自体の最適化を指し、コスト削減に寄与します。第二の「AI on RAN」はRAN統合型のエッジコンピュート上でコンピュータビジョンロボティクス、ローカルLLM推論などの企業AIワークロードを実行する段階です。第三の「AI and RAN」ではネットワークとAIワークロードが協調設計され、まったく新しいビジネスモデルが生まれるとGerami氏は説明しています。

技術面では、ISAC(統合センシング・通信)が中核となります。通信インフラがセンサーとしても機能し、工場や病院ではサブメートル精度の資産追跡や異常検知が可能になります。また、分割推論によりデバイス側・エッジ側・クラウド側に処理を分散させ、ミリ秒単位のリアルタイム制御を低コストで実現できるとChristou氏は述べました。

投資のタイミングについて両氏は、5Gインフラの展開がほぼ完了し6G標準がまだ確定していない現在が戦略的に重要な窓だと強調しています。AI-RANはソフトウェア定義のオープンアーキテクチャで構成されており、NVIDIAハードウェアとソフトウェアがあれば導入できるため参入障壁が低く、企業がネットワーク標準の共同設計者になれる点が従来の無線技術とは根本的に異なります。

SunoとUniversal、AI生成楽曲の共有で対立

ライセンス交渉の争点

AI生成楽曲の外部共有が最大の論点
Universalはアプリ内限定を要求
Sunoはユーザーの自由な共有を主張
Sonyとの交渉も難航

業界の反発と先行事例

2024年に大手3社が著作権訴訟を提起
Warnerはライセンス合意で訴訟取り下げ
Udioとの契約ではダウンロード禁止
アーティスト団体が公開書簡で抗議

AI音楽生成サービスのSunoが、Universal Music GroupおよびSony Music Entertainmentとのライセンス契約交渉で難航していることが、2026年4月7日にFinancial Timesの報道で明らかになりました。最大の争点は、ユーザーがAIで生成した楽曲をアプリ外で自由に共有・配布できるかどうかという点です。

Universalは、AI生成楽曲がSunoなどのアプリ内にとどまるべきだと主張しています。一方でSunoは、ユーザーが生成した楽曲をより広く共有・配布できるようにしたいと考えています。Sunoは現在、ユーザーがAI生成楽曲をダウンロードできる仕組みを提供しており、偽の楽曲や既存曲のAIコピーが拡散する懸念が高まっています。

この対立の背景には、2024年にUniversal、Sony、Warner Recordsの大手3社がSunoに対して起こした大規模な著作権侵害訴訟があります。2026年初頭には、アーティスト代理人の連合が「Say No to Suno」と題した公開書簡に署名し、Sunoが許可なく世界の文化的成果物を収集して事業を構築したと批判しました。

一方で先行事例も生まれています。Warnerは2025年にSunoとライセンス契約を締結し訴訟を取り下げました。この契約により、オプトインしたアーティストの声や楽曲をSunoユーザーが利用できるようになっています。またUniversalは競合サービスのUdioとは合意に達していますが、その契約ではユーザーによるAI生成楽曲のダウンロードが禁止されており、Sunoとの交渉でも同様の条件を求めているとみられます。

分散型AI訓練で太陽光住宅や遊休GPUを活用する動き

ハードウェアの分散活用

NvidiaやCiscoが拠点間接続技術を発表
Akash Networkが遊休GPUの貸借市場を構築
小規模GPUの活用で大規模訓練を実現

DiLoCoアルゴリズムの進展

Google DeepMindが低通信量の分散最適化手法を開発
Prime Intellectが5カ国横断で100億パラメータモデルを訓練
0G Labsが1070億パラメータモデルの分散訓練に成功

エネルギー問題への貢献

太陽光発電住宅をデータセンター化する構想
新規データセンター建設に頼らない訓練手法

AIの訓練には膨大なエネルギーが必要であり、データセンターの炭素排出量は増加の一途をたどっています。大手テック企業は原子力発電への関心を高めていますが、実用化にはまだ時間がかかります。こうした背景のもと、研究者や企業がAI訓練の分散化という手法でエネルギー問題に取り組んでいます。分散化とは、単一のデータセンターに依存せず、遊休サーバーや太陽光発電住宅のコンピュータなど既存のリソースを活用してモデル訓練を行う仕組みです。

NvidiaはSpectrum-XGSイーサネットを発表し、地理的に離れたデータセンター間での大規模訓練を可能にしました。Ciscoも分散AIクラスタ接続用のルーターを投入しています。一方、Akash Networkはオフィスや小規模データセンターの遊休GPUを貸し出すピアツーピア型クラウドマーケットプレイスを運営しており、「データセンターのAirbnb」を標榜しています。

ソフトウェア面では、Google DeepMindが開発したDiLoCoアルゴリズムが注目を集めています。DiLoCoは「計算の島」と呼ばれるチップ群を形成し、島同士の同期頻度を抑えることで通信コストと障害耐性の課題を解決します。改良版のStreaming DiLoCoでは、訓練と並行してバックグラウンドで知識を段階的に同期し、帯域幅の要件をさらに低減しました。Prime Intellectはこの手法で5カ国にまたがる100億パラメータモデルを訓練し、0G Labsは1070億パラメータの基盤モデルの分散訓練に成功しています。

Akash NetworkはStarclusterプログラムを立ち上げ、太陽光パネルを備えた住宅のデスクトップやノートパソコンをAI訓練に活用する構想を推進しています。参加にはバッテリーや冗長なインターネット接続が必要ですが、業界パートナーとの協力でバッテリーコストの補助を検討中です。2027年までに住宅がプロバイダーとして参加できるようになることを目指しており、学校やコミュニティ施設への展開も視野に入れています。

分散型AI訓練は、新たなデータセンターを建設せずに既存の処理能力を活かすことで、AIのエネルギー消費問題に対する有望な解決策となります。Akash共同創業者のGreg Osuri氏は「エネルギーをAIのところに持っていくのではなく、AIをエネルギーのあるところに持っていく」とその理念を語っています。

Google、Geminiに危機対応の即時接続機能を追加

危機対応機能の刷新

自殺・自傷の兆候検知時にワンタッチで相談窓口へ接続
臨床専門家と共同設計した新インターフェース
会話終了まで支援窓口への導線を常時表示
共感的な応答で専門家への相談を促進

資金提供と未成年者保護

Google.orgが世界の相談窓口に3000万ドルを拠出
ReflexAIとの連携拡大でAI訓練シミュレーションを強化
未成年者向けに人格模倣や感情依存を防ぐ保護策を整備

2026年4月7日、Googleは対話型AIサービスGeminiにメンタルヘルス危機対応の新機能を導入すると発表しました。会話の内容から自殺や自傷行為に関する危機的状況を検知した場合、再設計された「ワンタッチ」インターフェースを通じて、電話・チャット・テキストなどで即座に危機対応の相談窓口に接続できるようになります。この機能は臨床専門家との協力のもとで開発されました。

新しいインターフェースでは、一度危機対応モジュールが起動すると、会話が続く間は専門的な支援への導線が常に表示され続けます。応答も共感的な内容に設計され、利用者が実際の支援を求める行動を取れるよう促します。Googleは、Geminiは臨床治療や危機介入の代替ではないと強調しています。

資金面では、Google.orgが今後3年間で世界の危機対応ホットラインに3000万ドルの助成を行うと発表しました。さらにReflexAIとの提携を拡大し、400万ドルの直接資金とGemini技術の統合により、相談員のAI訓練プラットフォームを強化します。

未成年者向けには、Geminiが人間のふりをしたり感情的な依存を促したりすることを防ぐ保護策がすでに導入されています。今回の発表は、Geminiが男性の自殺を「誘導した」とする損害賠償訴訟を受けた直後のタイミングであり、AI業界全体で脆弱な利用者への安全対策が問われるなかでの対応となります。

GoogleがGemini時代のGmailデータ保護方針を公表

AIモデル学習への不使用

個人メールをGemini学習に使用しない方針
アクセスは要約など個別タスクに限定
処理後のデータは保持しない設計

プライバシー保護の技術設計

受信トレイ内で隔離処理する仕組み
ユーザー要求の完了後にデータを破棄
Gmail製品担当副社長が詳細を説明

2026年4月7日、Googleは公式ブログにおいて、AI機能「Gemini」をGmailに統合するにあたり、ユーザーのメールデータがどのように保護されるかについて詳細な説明を公表しました。AI機能の急速な普及に伴い高まるプライバシーへの懸念に対し、同社が公式見解を示した形です。

Googleによると、Geminiを含む基盤AIモデルの学習にユーザーの個人メールは使用されませんGeminiGmail内でアクセスを許可される場合でも、その範囲は長文メールの要約といった個別のタスクに限定されます。受信トレイの内容は、Geminiを利用した場合でもプライベートなままであると同社は強調しています。

技術的な設計面では、Geminiは受信トレイ内部で安全に隔離された状態で動作するよう構築されています。ユーザーが求めた処理のみを実行し、タスク完了後にはデータを保持しない仕組みです。これにより、AIがメール内容を蓄積・二次利用するリスクを排除しています。

Gmailの製品担当副社長であるブレイク・バーンズ氏が、GeminiGmailの連携に関する詳細を説明しています。Googleは「受信トレイはユーザー自身のもの」という原則を掲げ、AI時代においてもメールのプライバシーを最優先する姿勢を明確にしました。

AI業界リーダーの楽観論に疑問を呈す論説

Altmanの楽観的主張

「穏やかな特異点」で全面的恩恵を主張
自己強化ループで進歩が加速すると予測
ロボットが供給網を自律運営する構想

批判的視点

雇用喪失などの負の側面を軽視と指摘
「人は適応できる」という楽観論の危うさ
現実社会との乖離を問題視
SF的空想と批判される発言群

米テックメディアArs Technicaは2026年4月7日、OpenAIのCEOであるサム・アルトマン氏をはじめとするAI業界リーダーたちの発言を批判的に検証する論説記事を掲載しました。筆者のNate Anderson氏は、これらの発言が思慮深い未来予測というよりも「売り込み」に近いと指摘しています。

記事が特に取り上げたのは、アルトマン氏が昨年公開し約60万人が閲読したブログ記事「A Gentle Singularity(穏やかな特異点)」です。同記事でアルトマン氏はAIがもたらす恩恵を強調し、ヒューマノイドロボットがサプライチェーン全体を自律的に運営する未来像を描きました。鉱物の採掘から工場の運営、さらには新たなロボットの製造まで、自己強化ループにより進歩の速度が飛躍的に高まるとしています。

アルトマン氏は雇用の喪失といった課題にも言及しつつ、社会が急速に豊かになることで新たな政策が実現可能になると主張しています。産業革命後の雇用変化を引き合いに出し、人々は新たなツールや役割に素早く適応できると述べました。最終的には「互いのためにより素晴らしいものを作り続ける」という楽観的な展望を示しています。

これに対し筆者は、現実の世界を見渡したとき「互いのためにより素晴らしいものを作っている」という描写が妥当かどうか疑問を投げかけています。AI業界トップの発言が負の側面を過小評価し、SF小説のような空想に偏っているとの批判は、技術楽観主義に対する重要な問題提起といえます。

Google Maps、Geminiで写真キャプションを自動生成

Geminiによる自動キャプション

Geminiが写真を解析し説明文を提案
ユーザーは編集・削除が可能
まず米国iOS版の英語で提供開始

投稿体験の改善

端末内の写真を投稿タブに自動表示
ワンタップで写真・動画を共有可能

貢献者の可視化強化

獲得ポイントを投稿タブに常時表示
実績バッジと金色プロフィールを刷新
5億人超の投稿者コミュニティを支援

Googleは2026年4月7日、Google Mapsへの投稿をより簡単にする3つの新機能を発表しました。最大の目玉は、写真投稿時にGeminiがキャプションを自動生成する機能です。ユーザーが写真を選択すると、Gemini画像を解析して説明文の下書きを提案し、そのまま使うことも編集・削除することもできます。

キャプション自動生成は現在、米国iOS版で英語のみ利用可能です。今後数カ月でAndroidやグローバル展開が予定されています。Googleはこの機能について、写真に適切な説明を付ける際の「最初の一歩を手助けする」ものと位置づけています。

投稿プロセス自体も改善されました。端末の写真へのアクセスを許可すると、最近撮影した写真や動画が「投稿」タブに直接表示され、タップするだけで共有できます。この写真・動画のレコメンド機能は、AndroidiOSの両方でグローバルに利用可能です。

さらに、投稿者の貢献度を可視化する仕組みも強化されました。獲得した合計ポイントが投稿タブに表示されるほか、ローカルガイドのレベルがプロフィールページで目立つように表示されます。実績バッジのデザインも刷新され、上級貢献者には新しい金色のプロフィールが付与されます。

Google Mapsは5億人を超える投稿者コミュニティに支えられており、写真・レビュー・動画などの投稿が地図情報の鮮度を保つ重要な役割を果たしています。今回のアップデートは、こうした貢献のハードルを下げ、投稿者のモチベーションを高める狙いがあります。

Blueskyの障害にバイブコーディング批判が殺到

ユーザーの反応

月曜の一時的な障害で投稿が殺到
AI利用の開発手法への強い嫌悪感
ミームや皮肉で開発チームを批判
バイブコーディング」が槍玉に

開発チームのAI活用実態

創業者Claude Code使用を公言
技術顧問は「コードの99%がAI生成」
AI活用公言が障害前から反発を招く

2026年4月7日、分散型SNSのBlueskyで断続的なサービス障害が発生しました。Bluesky側は上流のサービスプロバイダーに起因する問題と説明しましたが、多くのユーザーは開発チームがAIを活用した「バイブコーディング」に頼っていることが原因だと即座に断定しました。同日、GoogleやSpotifyなど他の大手サービスでも広範な障害が報告されていたにもかかわらず、批判はBlueskyに集中しました。

Blueskyのフィード上には、開発者がAIツールに依存して不完全なコードを出荷していると非難する投稿が数百件にわたって溢れました。ミームや皮肉を交えた投稿が相次ぎ、あるユーザーは「バイブコーディングやAIに頼る開発者は仕事のやり方を知らない」と強い怒りをあらわにしました。

この反発の背景には、Bluesky開発チームがAIツールの活用を公言していた経緯があります。創業者のジェイ・グレーバー氏は3月下旬に「BlueskyはAIで作られており、エンジニアClaude Codeを使っている」と投稿していました。技術顧問のジェロミー・ジョンソン氏も2月に「過去2カ月でコードの99%Claudeが書いた」と述べていました。

この事例は、プロの開発者がAIコーディングツールの活用に前向きになる一方で、エンドユーザーの間にはAI利用への根強い不信感が残っている現状を浮き彫りにしています。技術的な原因とは無関係に、AIの関与がスケープゴートとして機能する構図が鮮明になりました。

AIデータセンターのFirmusが評価額55億ドルに到達

大型資金調達の概要

Coatue主導で5.05億ドル調達
ポストマネー評価額55億ドル
6カ月間の累計調達額13.5億ドル
前回はNvidiaも出資参加

事業と技術基盤

豪州・タスマニアにAIデータセンター網構築
NvidiaVera Rubin基盤を採用
暗号資産の冷却技術からAI事業へ転換
「Project Southgate」として開発推進

シンガポール拠点のAIデータセンター企業Firmusは2026年4月7日、Coatueが主導する5億500万ドルの資金調達ラウンドを完了したと発表しました。ポストマネー評価額55億ドルに達し、過去6カ月間の累計調達額は13億5000万ドルに上ります。前回ラウンドではNvidia投資家として参加していました。

同社はオーストラリアおよびタスマニアにおいて、エネルギー効率の高いAIデータセンターネットワークProject Southgate」の構築を進めています。新たなデータセンターにはNvidiaのリファレンス設計が採用されており、Blackwellアーキテクチャの後継となる次世代AIコンピューティング基盤「Vera Rubin」プラットフォームが導入される予定です。

Firmusはもともとビットコインマイニング向けの冷却技術を提供していた企業です。暗号資産関連企業からAIインフラ事業者へと転換を遂げた点は、CoreWeaveRunPodなど同様の経路をたどる企業群の一つとして注目されています。

Vera Rubinプラットフォームは2026年下半期の出荷が見込まれており、Firmusのデータセンター稼働時期もそれに合わせて進められるとみられます。AI計算需要の急拡大を背景に、アジア太平洋地域におけるAIインフラ投資の活発さを示す事例となっています。

MIT、データセンターのSSD性能を最大化する新手法を開発

性能低下の3大要因に対応

SSDの経年劣化による性能差を吸収
読み書き干渉を回転割り当てで回避
ガベージコレクション検知で負荷を自動分散

二層構造で効率を最大化

全体最適を担うグローバルスケジューラ
各SSDのローカル制御が即時対応
スループット最大94%向上を達成
理論性能の95%を専用機器なしで実現

米マサチューセッツ工科大学(MIT)の研究チームは2026年4月7日、データセンターで共有利用されるSSD(ソリッドステートドライブ)の性能を大幅に引き上げるソフトウェアシステム「Sandook」を発表しました。複数のSSDをプールして共有する運用では、機器ごとの性能差が全体の足を引っ張る問題がありましたが、Sandookは3つの主要な性能変動要因を同時に制御することで、従来手法を大きく上回る効率化を実現します。

Sandookが対処する3つの変動要因は、SSDの経年劣化や製造元の違いによる性能差、同一SSD上での読み書き操作の干渉、そして予測不能なタイミングで発生するガベージコレクションによる遅延です。従来の手法はこれらを個別に処理していましたが、Sandookは二層アーキテクチャによりすべてを統合的に管理します。

グローバルスケジューラがSSD群全体のタスク配分を最適化し、各SSDに配置されたローカルコントローラが突発的な性能低下に即座に対応します。読み書きの干渉に対しては、アプリケーションが使用するSSDを読み取り用と書き込み用でローテーションさせることで衝突を回避します。ガベージコレクション発生時には該当SSDの負荷を自動的に軽減し、完了後に段階的に復帰させます。

10台のSSDプールを用いた実験では、データベース運用やAIモデル学習、画像圧縮などのタスクでスループットが12〜94%向上し、SSD容量の利用率も23%改善しました。専用ハードウェアやアプリケーション固有の変更を必要とせず、理論上の最大性能の95%を達成しています。研究チームは今後、最新SSDのデータ配置制御プロトコルやAIワークロードの予測可能性を活用し、さらなる効率化を目指すとしています。本研究はUSENIX NSDIシンポジウムで発表されます。

Android XRに没入型の新機能5つが追加

2Dから3Dへの進化

自動空間化で2Dアプリを3D変換
XR対応アプリが100本超に倍増
壁面にアプリを固定配置する機能

操作性と利便性の向上

実際の手が仮想空間で表示可能に
セッション復元で前回の配置を自動再現
ハンド・アイトラッキングも改善
Android Enterprise対応で企業導入へ

Googleは2026年4月7日、Samsung Galaxy XRヘッドセット向けにAndroid XRの大型アップデートを発表しました。今回のアップデートでは没入感を高める5つの新機能が追加され、2Dコンテンツの3D変換や物理空間との融合がより自然になります。昨年末のGalaxy XR発売以降、初となる大規模な機能拡張です。

目玉となる「自動空間化(Auto-spatialization)」は実験的機能として提供され、ほぼすべてのアプリ、ゲーム、ウェブサイト、画像動画をボタン一つで3D体験に変換できます。YouTube動画に奥行きを加えたり、Chromeのウェブサイトを立体的に表示したりすることが可能です。

XR専用に最適化されたアプリも100本を超え、発売時から倍増しました。Real VR FishingやTrombone Champ: Unflattened!などの新タイトルに加え、パリ・サンジェルマンのアプリではスタジアムにいるかのようなライブ観戦体験が楽しめます。また、アプリを壁面に固定する機能により、物理空間をワークスペースやエンターテインメントセンターとして活用できるようになりました。

操作面では、仮想コンテンツに触れる際に自分の実際の手が表示されるようになり、白い輪郭線だけだった従来の表示から大きく改善されました。さらにセッション復元機能により、ヘッドセットを再装着した際にアプリが前回の配置で自動的に再起動します。

企業向けにはAndroid EnterpriseがXRで正式にサポートされ、Microsoft IntuneやSamsung Knox Manageなど主要なEMMパートナーとの連携により、没入型トレーニングやコラボレーションの大規模展開が可能になりました。ハンドトラッキングやアイトラッキングの精度向上、アクセシビリティの改善も含まれています。

Googleがカトリック学校14万教員にAIリテラシー研修を提供

全米規模の研修体制

14万人教員が対象
160万人の生徒に波及見込み
全米カトリック教育協会と提携
Google Educator Group新設

研修の具体的内容

AI基礎知識の習得プログラム
管理業務の効率化手法を提供
6名の教員Google本社で先行研修
地域単位での段階的展開

Googleは2026年4月7日、全米のカトリック学校教員を対象としたAIリテラシー研修プログラムを開始したと発表しました。全米カトリック教育協会(NCEA)との提携により、約14万人教員がAIリテラシーツールを利用できるようになり、その先にいる160万人の生徒への教育効果が期待されています。

本プログラムはGoogle AI Educator Seriesの一環として展開されます。まず6名のカトリック学校教員Googleキャンパスを訪問し、AIの基礎知識や管理業務の効率化手法などを学びます。その後、各教員が地域レベルでのAI研修の実施を担う仕組みです。

Googleは同週にミネアポリスで開催されるNCEAカンファレンスにも参加し、現地でのトレーニングやAIが教室体験をどのように向上させるかを紹介する予定です。宗教系私立学校へのAI教育支援として注目される取り組みとなっています。

この施策は、K-12から大学まで全米の教育者にAIリテラシーを届けるというGoogleの包括的な教育戦略の一部です。公立学校だけでなくカトリック学校という大規模な私立教育ネットワークに対象を広げた点が、AI教育の普及において重要な一歩といえます。

SpotifyのAIプレイリストがポッドキャストに対応

機能の概要と対象

テキスト指示でポッドキャスト一覧を自動生成
Premium限定で英語圏7カ国に提供
2025年12月の音楽向けベータを拡張

使い勝手と課題

プロンプト編集で結果の絞り込みが可能
エピソード単位の抽出で時系列に難あり
AIによるエピソード説明文を自動付与
日次・週次の自動更新設定に対応

Spotifyは2026年4月7日、AIを活用したPrompted Playlists機能をポッドキャストに拡張したと発表しました。この機能はもともと2025年12月に音楽向けのベータ版として提供が始まったもので、テキストプロンプトを入力することでアルゴリズムを特定のジャンルやテーマに誘導し、カスタマイズされたプレイリストを生成できます。今回のアップデートにより、Premiumユーザーはポッドキャストのエピソードでも同様の体験が可能になりました。

現時点ではベータ版の扱いで、対象は英語圏の米国、カナダ、英国、アイルランド、オーストラリア、ニュージーランド、スウェーデンの7カ国に限定されています。利用するにはSpotifyアプリで「Create」から「Prompted Playlist」を選び、求めるポッドキャストの内容をテキストで記述して生成ボタンを押します。

実際の使用感として、AIがプレイリストを生成するまでに数分を要し、「ユーモアの検証」といった独自のステップが表示される場面もあったと報じられています。一方で、エピソード単位で抽出される仕様のため、時系列で聴くことを前提とした番組ではランダムなエピソードが選ばれる課題があります。この点はプロンプトを編集して「キャンペーンや番組の第1話のみ」と指定することで改善できたとのことです。

各エピソードにはプロンプトとの関連性を説明するAI生成の要約文が付与されます。The Vergeの記者によるテストでは、既知の番組に対する説明は「面白く、本当の緊張感がある」など曖昧ながらも正確だったと評価されています。生成後のプレイリストは手動で編集でき、日次または週次で自動更新する設定も可能です。

MIT、ハードテック支援START.nanoに16社が新規参加

プログラムの概要と成長

16社が2025年に参加
前年比2倍以上の新規参加数
累計32社超と卒業11社の実績

注力分野と支援内容

医療・気候・エネルギー等に対応
MIT.nano施設の割引利用
MITイノベーション人脈への接続
参加企業の49%がMIT卒業生設立

MIT.nanoは2025年に16社のスタートアップが同組織のアクセラレータープログラム「START.nano」に新規参加したと発表しました。これは前年の新規参加数から2倍以上に増加した数字です。同プログラムはハードテック分野のイノベーションを市場に届けることを目的としており、MIT.nanoの共有施設の割引利用やMITのイノベーションエコシステムへのアクセスを提供しています。

新規参加の16社は、医療、気候変動、エネルギー半導体、新素材、量子コンピューティングといった幅広い領域で課題解決に取り組んでいます。たとえばAcorn Geneticsはポータブルな遺伝子解析デバイスを、Quantum FormaticsはAIを活用した超伝導体発見の加速を、Vertical Semiconductorは高電圧・高効率のGaN半導体の商用化をそれぞれ目指しています。

2021年に開始されたSTART.nanoは、ハードテックスタートアップの生存率向上を目標に掲げています。施設利用だけでなく、MIT主催カンファレンスでの展示機会や、新設されたPITCH.nanoコンペティションへの参加など、事業成長を後押しする場を提供しています。

MIT関係者でなくても参加は可能ですが、新規16社のうち5社はMIT卒業生が率いており、さらに3社がMIT関連の企業です。プログラム全体では参加企業の49%がMIT卒業生による設立となっています。現在、START.nanoは累計32社以上が参加し、11社がプロトタイピング段階を超えて卒業、一部は商用化に至っています。

Chrome、縦タブと没入型読書モードを追加

縦タブ機能の概要

タブをブラウザ側面に縦配置
ページタイトル全文の常時表示
タブグループの管理が容易に
右クリックから即座に切り替え可能

読書モードの刷新

全画面の没入型インターフェース採用
視覚的ノイズを除去しテキストに集中
右クリックメニューから起動
既存機能を大幅に改良

Googleは2026年4月7日、デスクトップ版Chromeブラウザに縦タブ没入型読書モードの2つの新機能を追加し、段階的な展開を開始したと発表しました。いずれもブラウザの生産性向上を目的とした機能で、ユーザーの作業効率を高めることを狙いとしています。

縦タブ機能は、従来ブラウザ上部に横並びで表示されていたタブを、ウィンドウの側面に縦方向で表示するものです。任意のChromeウィンドウ上で右クリックし「Show Tabs Vertically」を選択することで有効になります。タブが多数開かれた状態でもページタイトルの全文が視認でき、タブグループの整理も容易になります。

読書モードは、Chromeに以前から搭載されていた集中読書向け機能を大幅に刷新したものです。新たに全画面対応のインターフェースが導入され、広告や装飾といった視覚的な要素を排除し、テキスト中心の読書体験を提供します。ページ上で右クリックから「Open in reading mode」を選ぶだけで利用できます。

今回の2機能はいずれもChromeの標準機能として無料で提供され、特別な拡張機能のインストールは不要です。Googleはこれらの機能により、日常的なブラウジングにおけるマルチタスク効率と集中力の両立を目指しています。