MIT(大学・研究機関)に関するニュース一覧

MIT、AI倫理を自動評価する新手法を開発

SEED-SETの仕組み

客観指標と主観価値を分離評価
LLMを人間評価者の代理に活用
階層構造で評価回数を大幅削減
事前データ不要で複数目的に適応

実証と今後の展望

電力網・交通の現実的シナリオで検証
基準手法の2倍以上の最適テスト生成
低所得地域への不公平配電を自動検出
大規模LLM意思決定評価へ拡張予定

MITの研究チームは、自律型AIシステムの倫理的整合性を自動評価する新手法「SEED-SET」を開発しました。電力配分や交通制御など高リスク領域でのAI判断が公平かどうかを、展開前に体系的に検証できます。

従来の評価手法は事前収集データに依存し、主観的な倫理基準のラベル付けが困難でした。SEED-SETは客観的な性能指標と主観的な倫理基準を階層的に分離し、少ない評価回数で最も情報価値の高いシナリオを効率的に特定します。

主観評価には大規模言語モデル(LLM)を人間の代理として活用します。各利害関係者の倫理的選好を自然言語プロンプトに変換し、シナリオ間の比較判定を行うことで、人間評価者の疲労による一貫性低下の問題を回避しています。

電力網と都市交通ルーティングの実験では、同じ時間内に基準手法の2倍以上の最適テストケースを生成し、他手法が見落としたシナリオも多数発見しました。たとえば高所得地域を優先するピーク時配電の不公平を自動的に検出できました。

研究チームは今後、実際の意思決定に役立つかを検証するユーザースタディを実施予定です。さらに大規模問題やLLMの意思決定評価にも拡張する計画で、研究は国際学習表現会議(ICLR)で発表されます。

MIT、3Dプリントの外観を事前に再現するAIツールを開発

VisiPrintの仕組み

スライサーのスクリーンショットと素材画像の2入力で動作
コンピュータビジョンと生成AIの2モデル連携
色・光沢・半透明性など外観特性を自動反映
積層パターンを考慮した専用の条件付け手法を採用

従来手法との比較

ユーザー評価で外観・質感の類似度が最高
プレビュー生成は約1分で競合の2倍以上高速
汎用AIモデルより形状・パターンの精度が優位

活用と今後の展望

歯科や建築など外観重視分野での応用を想定
素材の廃棄量削減による持続可能性向上が目標

MITなどの研究チームは、3Dプリントで製作する物体の外観を事前に高精度で再現するAIツール「VisiPrint」を開発しました。成果はACM CHI 2026で発表されます。

従来の3Dプリントソフトは機能面のプレビューに重点を置いており、色や質感が実物と異なることが多く、試作のやり直しが頻発していました。素材の約3分の1が廃棄されるとの調査もあり、資源の無駄が深刻な課題です。

VisiPrintは、スライサーソフトのスクリーンショットと素材の画像を入力するだけで動作します。コンピュータビジョンモデルが素材の特徴を抽出し、生成AIモデルがノズルの積層パターンや造形プロセスの影響を反映した外観を生成します。

技術の核心は、深度マップとエッジマップを組み合わせた専用の条件付け手法にあります。これにより形状の正確さとスライスパターンの忠実さを両立させています。汎用的なAIモデルでは形状の変形やパターンの誤りが起きやすい問題を解決しました。

ユーザー評価では、ほぼ全員が既存手法より外観と質感の再現性が高いと回答しました。プレビュー生成時間は平均約1分で、競合手法の2倍以上の速度を実現しています。歯科での仮歯の色合わせや建築模型の視覚評価など、外観が重要な分野での活用が期待されています。

MIT、AIで材料中の原子欠陥を非破壊で同時検出する手法を開発

AI欠陥検出の革新

6種類の点欠陥を同時検出
2000種の半導体材料で訓練
非破壊の中性子散乱データを活用
濃度0.2%の微量欠陥も識別

産業応用と今後

従来手法では部分的な欠陥情報のみ取得可能
ラマン分光法対応モデルを次に開発予定
半導体・太陽電池の品質管理革新に期待
企業からの実用化への関心が既に集中

MITの研究チームは、中性子散乱技術から得られるデータにAIモデルを適用し、材料を破壊せずに原子レベルの欠陥を分類・定量化する手法を開発しました。成果は学術誌Matterに掲載されています。

このモデルは2000種類半導体材料で訓練され、ChatGPTと同様のマルチヘッドアテンション機構を活用しています。欠陥のある材料とない材料のデータ差分を学習し、ドーパントの種類と濃度を高精度で予測します。

従来の欠陥検出技術はX線回折やラマン分光法など個別手法に限られ、欠陥の種類か濃度のどちらか一方しか把握できませんでした。透過型電子顕微鏡では材料を薄く切断する必要があり、完成品の検査には不向きでした。

新手法は最大6種類の点欠陥を同時に検出でき、濃度0.2%という微量レベルまで識別可能です。筆頭著者のCheng氏は「2種類の欠陥の混合信号を解読するだけでも困難なのに、6種類で機能したことに驚いた」と成果の意義を強調しています。

研究チームは今後、より普及しているラマン分光法のデータで同様のモデルを訓練し、企業が品質管理プロセスに迅速に導入できる体制を目指します。点欠陥より大きな結晶粒や転位の検出への拡張も計画されており、半導体・電池材料産業への波及効果が期待されています。

Midjourney技術者がWeb設計を革新するOSSライブラリPretext公開

Pretextの技術革新

DOM迂回でテキスト計測を高速化
15KBのゼロ依存TypeScriptライブラリ
300〜600倍の描画性能向上を実現
モバイルでも120fps動作可能

開発手法と反響

48時間でGitHub星1.4万獲得
X上で1900万回閲覧を記録

企業への示唆

生成AIのUI構築に即時導入推奨
アクセシビリティ管理は自社責任に

MidjourneyエンジニアCheng Lou氏が2026年3月27日、Webテキストレイアウトを根本から変えるオSSライブラリPretextMITライセンスで公開しました。15KBのゼロ依存TypeScriptライブラリで、ブラウザのDOM操作を迂回し、テキストの計測と配置を高速に行います。

従来のWeb開発では、テキストの高さや位置を取得するたびにブラウザがレイアウトリフローと呼ばれる再計算を実行し、深刻なパフォーマンス低下を招いていました。PretextはブラウザのCanvasフォントメトリクスと純粋な算術演算を組み合わせ、DOMに一切触れずに文字・単語・行の配置を予測します。

ベンチマークによると、Pretextのlayout関数は500種類のテキストを約0.09ミリ秒で処理でき、従来のDOM読み取りと比較して300〜600倍の性能向上を達成しています。この速度により、ウィンドウリサイズや物理演算中でもリアルタイムにテキスト再配置が可能になりました。

開発にはAnthropicClaudeOpenAICodexなどAIコーディングツールが活用されました。多言語データセットや小説全文を用いてブラウザ実装とのピクセル単位の整合性を反復検証し、WebAssemblyやフォント解析ライブラリなしで高精度を実現しています。

公開から48時間でGitHubスター1万4000超、X上で1900万回閲覧を記録しました。コミュニティでは雑誌レイアウト、物理演算テキスト、ディスレクシア向けフォント調整など多彩なデモが登場し、Web表現の可能性が大きく広がっています。

企業にとっては、生成AI UIや高頻度データダッシュボードを構築する場合に即時導入が推奨されます。ただしレイアウトをユーザーランドに移すことで、ブラウザが担っていたアクセシビリティや標準準拠の責任を自社で管理する必要がある点には留意が必要です。

MIT院生が音楽を可視化するAIシステムを開発

研究の概要

ニューラルセルオートマトンで音を映像化
音楽エネルギーと連動する自己再生画像
Webインターフェースで誰でも視覚演出可能
AAAI 2026シンガポール大会で発表

研究者の歩み

機械工学からAI専攻へ転向
MIT初の音楽技術・計算修士課程に所属
2026年SHASS学位授与式で学生代表スピーチに選出

今後の展望

自己組織化システムのモデル改善に応用可能

MITの新設「音楽技術・計算修士課程」に所属する大学院生マリアノ・サルセド氏が、AIと音楽ビジュアルの融合を目指す研究を進めています。同氏はニューラルセルオートマトン(NCA)を活用し、音楽に連動して自己再生する映像を生成するシステムを開発しました。

NCAは古典的なセルオートマトンと機械学習を融合した技術で、音楽エネルギーを刺激として画像が動的に変化します。サルセド氏が設計したWebインターフェースでは、ユーザーが音楽と映像システムの関係を調整し、あらゆる音声ストリームから独自のビジュアルパフォーマンスを作成できます。

サルセド氏はメキシコとテキサスで育ち、MITでは機械工学を専攻していましたが、LLMチャットボットとの出会いをきっかけにAI・意思決定学科へ転向しました。DJとしての音楽活動を通じてデジタル音楽制作にも取り組み、エラン・エゴジー教授の研究室で音楽技術の道を本格的に歩み始めました。

この研究成果「Artificial Dancing Intelligence: Neural Cellular Automata for Visual Performance of Music」は、2026年1月にシンガポールで開催されたAAAI(人工知能促進学会)の学会で発表されました。サルセド氏は2026年の人文・芸術・社会科学部の学位授与式で学生代表スピーチを行う予定です。

サルセド氏は、この技術が音楽の可視化にとどまらず、多細胞生物や鳥の群れ、社会システムなどの自己組織化システムのモデリング改善にも応用できると展望しています。現在のLLM中心の学術界において基盤技術の探求が重要だと強調し、AIの倫理的課題や音楽における西洋中心の偏りの解消にも取り組んでいます。

MIT、タンパク質の「動き」を設計するAIモデルを開発

VibeGenの革新性

振動パターンから配列を逆設計
拡散モデルベースの生成AI活用
設計者と評価者の2エージェント協調
自然界に存在しない新規配列を創出

応用と展望

創薬分野で柔軟な結合設計
シルク等の持続可能素材開発
自己修復する構造材料への応用
多機能分子マシンの実現へ

MITの研究チームは2026年3月24日、タンパク質の三次元構造ではなく「動き方」を指定して新たなタンパク質を設計できるAIモデル「VibeGen」を学術誌Matterで発表しました。従来の構造予測を超え、分子の振動・屈曲パターンを設計入力とする画期的な手法です。

従来のAIタンパク質設計はAlphaFoldに代表される静的な三次元構造の予測・生成が中心でした。しかしタンパク質の機能は形状だけでなく、柔軟に動く力学的特性にも大きく依存します。VibeGenはこの課題に正面から取り組み、「どう動くか」から逆算してアミノ酸配列を決定します。

VibeGenは画像生成AIと同じ拡散モデル技術を基盤としています。ランダムなアミノ酸配列からスタートし、目標の振動パターンに収束するまで段階的に精製します。設計エージェントが候補配列を提案し、予測エージェントが動きを検証する協調システムにより、高精度な設計を実現しています。

研究の重要な発見として、同一の振動特性を満たす配列が多数存在する「機能的縮退」が確認されました。これは進化が探索した解が可能性のごく一部に過ぎないことを示唆しており、自然界にない全く新しいタンパク質設計の広大な空間が存在することを意味します。物理シミュレーションでも設計通りの動きが確認されました。

応用面では、標的分子に柔軟に適応する治療用タンパク質の開発や、シルク・コラーゲンのような生体材料の力学特性を制御した持続可能な新素材の創出が期待されます。研究チームは今後、実験室での検証を進めるとともに、環境を感知しリアルタイムで適応する多機能分子マシンの設計を目指すとしています。

MIT、倉庫ロボット数百台の渋滞回避AIを開発

深層強化学習で制御

深層強化学習で優先順位を自動決定
渋滞発生前に経路を再計画
従来比スループット25%向上
未知のレイアウトにも即座に適応

ハイブリッド手法の優位性

ニューラルネットと古典的計画の融合
ロボット密度増加時も性能維持
人間設計アルゴリズムを超人的に凌駕
Symbotic社との産学共同研究

MITと物流テック企業Symboticの研究チームは、EC倉庫内で稼働する数百台の自律ロボットの交通渋滞を未然に防ぐ新たなAIシステムを開発しました。研究成果はJournal of Artificial Intelligence Researchに掲載されています。

このシステムは深層強化学習と従来型の経路計画アルゴリズムを組み合わせたハイブリッド手法を採用しています。ニューラルネットワークが倉庫全体の混雑状況を観測し、どのロボットを優先すべきかをリアルタイムで判断します。その後、高速な計画アルゴリズムが各ロボットへ具体的な移動指示を送ります。

実際のEC倉庫レイアウトを模したシミュレーション環境でテストした結果、従来手法と比較してスループットが約25%向上しました。特にロボット密度が高い環境では従来手法が急速に性能低下する一方、本手法は効率的な制御を維持できることが確認されています。

研究を主導したHan Zheng氏は、巨大倉庫ではわずか2〜3%のスループット改善でも大きな経済効果があると説明しています。純粋な機械学習では複雑な最適化問題の解決が難しく、人間による手動設計も膨大な時間を要するため、両者の長所を融合したアプローチが有効だとしています。

現時点では実環境への導入にはまだ距離がありますが、研究チームは今後、タスク割り当ての最適化や数千台規模へのスケールアップに取り組む予定です。本研究はSymbotic社の資金提供を受けて実施されました。

英研究チームがAIエージェント記憶技術xMemoryを開発、トークン消費半減

従来RAGの限界

会話記憶に未対応の設計
類似チャンク大量取得で冗長化
時系列依存の文脈を誤削除

xMemoryの階層構造

4層意味階層で会話を整理
不確実性ゲートで取得量を制御
トークン数約9000→4700に削減

導入判断の指針

長期対話型業務に最適
文書検索用途は従来RAGで十分

キングス・カレッジ・ロンドンとアラン・チューリング研究所の研究チームは、AIエージェントの長期記憶管理技術「xMemory」を開発しました。従来のRAGパイプラインが抱えるマルチセッション対話での冗長性問題を解決し、トークン使用量を大幅に削減します。

従来のRAGは大規模な文書データベース向けに設計されており、会話記憶のような相関性の高いデータストリームには不向きです。類似した埋め込みベクトルを持つチャンクが大量に取得され、重要な文脈情報が埋もれてしまいます。さらに会話特有の時系列依存性により、後処理での枝刈りが必要な情報まで削除するリスクがあります。

xMemoryは会話データを「生メッセージ→エピソード→セマンティクス→テーマ」の4層階層に整理します。検索時はテーマ層から下位層へトップダウンで探索し、「不確実性ゲーティング」により回答精度の向上に寄与する場合のみ詳細データを取得します。これにより冗長な情報の取得を根本的に防ぎます。

実験では、オープンモデル・クローズドモデル双方でxMemoryが既存手法を上回る精度を達成しました。一部タスクではクエリあたりのトークン消費が約9,000から約4,700に半減し、推論コストの大幅な削減を実現しています。ただし階層構造の構築にはバックグラウンドでの追加LLM呼び出しが必要であり、書き込みコストとのトレードオフが存在します。

研究者のLin Gui氏は、カスタマーサポートやパーソナライズドコーチングなど数週間〜数カ月にわたる一貫した対話が求められる業務での活用を推奨しています。一方、ポリシー文書や技術マニュアルの検索には従来のRAGで十分とのことです。コードはMITライセンスGitHubに公開されており、商用利用も可能です。

MIT、超音波リストバンドでロボットハンドを遠隔操作

デバイスの仕組み

手首の超音波画像をリアルタイム取得
AIが画像から22自由度の指位置を推定
スマートウォッチ大の小型設計
カメラやグローブ不要の非侵襲型

応用と展望

ロボットハンドの無線制御を実証
VR・ARでの直感的操作に活用
ヒューマノイド訓練データの大量収集
手術など精密作業への応用視野

MITの研究チームは、装着者の手の動きをリアルタイムで追跡し、ロボットハンドを無線制御できる超音波リストバンドを開発しました。研究成果はNature Electronics誌に掲載され、VR・ロボティクス分野への応用が期待されています。

このリストバンドは手首の筋肉や腱の超音波画像を連続的に撮影し、AIアルゴリズムが画像を5本の指と手のひらの位置情報にリアルタイムで変換します。手首の腱は指を動かす「操り糸」のような役割を果たしており、その状態を画像化することで手全体の動きを正確に把握できます。

従来のカメラ方式は設置が複雑で遮蔽物に弱く、センサーグローブは自然な動きを妨げるという課題がありました。筋電信号を用いる方式もノイズの影響を受けやすく、微細な動きの識別が困難でした。超音波方式はこれらの問題を解決し、指の22自由度すべてを高精度で追跡できます。

実証実験では8名の被験者がアメリカ手話の全26文字やテニスボール・ハサミなどの把持動作を行い、いずれも正確に追跡されました。ロボットハンドとの連携では、装着者の動きに合わせてロボットピアノ演奏やバスケットボールのシュートを再現することに成功しています。

研究チームは今後、ハードウェアのさらなる小型化と、多様な手のサイズ・形状に対応するためのAI学習データの拡充を進めます。将来的には誰でも装着可能な汎用デバイスとして、ヒューマノイドロボットの訓練データ収集や外科手術支援、VR・ゲーム操作など幅広い分野への展開を目指しています。

MIT研究チーム、魚の遡上をAI画像認識で自動計測する手法を開発

システムの概要

水中カメラと深層学習の統合
マサチューセッツ州3河川で実証
約6万フレームを手動ラベル付け
エンドツーエンドの計測パイプライン構築

成果と知見

2024年に4万2510匹を自動計測
上流移動は夜明けにピーク
下流移動は夜間に集中と判明

今後の展望

市民科学との補完的運用を提唱
多種の水生生物への応用を想定

MITシーグラント、MIT CSAIL、ウッドウェル気候研究センターなどの共同チームは、水中映像とコンピュータビジョンを組み合わせ、ニシン科の魚の遡上数を自動計測するシステムを開発しました。研究成果は2026年2月、学術誌Remote Sensing in Ecology and Conservationに掲載されています。

従来の魚の遡上モニタリングは、ボランティアによる目視計測が主流でしたが、日中の短い時間帯に限られ、夜間の移動や短時間に数百匹が通過する瞬間的なピークを捉えられないという課題がありました。水中映像の手動確認も膨大な時間を要し、自動化への需要が高まっていました。

研究チームはマサチューセッツ州のクーナメセット川、イプスウィッチ川、サンタイット川の3河川に水中カメラを設置し、照明条件や水の透明度、魚種・密度が異なる1435本の映像クリップから5万9850フレームを手作業でラベル付けしました。このデータセットで物体検出・追跡モデルを訓練しています。

2024年のクーナメセット川での実証では、システムが4万2510匹のニシンを自動計測し、従来手法と整合する結果を得ました。さらに上流への移動が夜明けにピークを迎え、下流への移動は捕食者を避けるため暗く静かな夜間に集中するという行動パターンも明らかになっています。

研究チームは、自動計測システムが完全に導入された後も、カメラの維持管理や映像のアノテーション、モデル検証において市民科学ボランティアの役割は不可欠だと強調しています。AIと人間の観察を統合することで、より包括的な環境モニタリングの実現を目指す方針です。

MIT、医療AIに「謙虚さ」組み込む新フレームワーク提唱

謙虚なAIの仕組み

自信度の自己評価機能を搭載
確信過剰時に追加検査を提案
専門医への相談を自動で推奨
医師との協働型意思決定を実現

公平性への取り組み

米国偏重の訓練データの是正
電子カルテの文脈不足を課題視
多様な専門家による共同設計
構造的不平等の再現を防止

MITが主導する国際研究チームは、医療用AIシステムに「謙虚さ」を組み込む新たなフレームワークを開発し、BMJ Health and Care Informatics誌に発表しました。診断の不確実性を医師に明示し、過信による誤診を防ぐ仕組みです。

従来の医療AIは過信した診断結果を提示する傾向があり、ICU医師が自身の直感に反してAIの提案に従ってしまう事例が報告されていました。患者も権威的に見えるAIの誤った推奨を受け入れやすいことが先行研究で判明しています。

新フレームワークの中核は、メルボルン大学が開発した認識的美徳スコアと呼ばれるモジュールです。AIが自らの確信度を臨床シナリオの複雑さに応じて評価し、根拠が不十分な場合は診断を一時停止して特定の検査や専門医への相談を提案します。

研究チームは既に大規模医療データベースMIMICを基盤としたAIシステムへの実装を進めており、Beth Israel Lahey Health系列の臨床現場への導入を計画しています。X線画像の解析や救急外来での治療方針決定など幅広い応用が見込まれます。

この取り組みは、AIの公平性向上という大きな目標の一環でもあります。多くの医療AIモデルは米国のデータに偏っており、農村部の患者など医療アクセスが限られる層がデータセットから除外される問題があります。MIT Critical Dataのワークショップでは、データサイエンティストや医療従事者が共同で構造的不平等の再現を防ぐ設計に取り組んでいます。

MIT教授がAI×オペレーションズ研究の成果を講演

AI活用の研究成果

キリアン賞受賞講演を実施
病院滞在日数を0.45日短縮
年間5000人超の追加入院を実現
パナマ運河の船舶運航を最適化

教育とAI技術移転

10億人の学習者到達を目標
オンライン教育にAI翻訳導入
知的財産国際移転研究が進展
グリーン技術の貿易データセット構築

MITのDimitris Bertsimas教授が2026年3月19日、第54回キリアン賞講演でAIとオペレーションズ・リサーチが医療・教育・農業を変革する成果を発表しました。同賞はMIT教員に授与する最高の栄誉です。

Bertsimas教授が開発したロバスト最適化手法は、パナマ運河の船舶通過数を1日45隻に設定することで安定運航を実現しました。この手法はボストンのスクールバス配車など多様な物流課題にも応用されています。

コネチカット州のHartford HealthCareとの共同研究では、AIを診断ツールに組み込み、平均入院日数を5.38日から4.93日に短縮しました。主要病院では年間5000人以上の追加受け入れが可能になっています。

一方、MIT国際研究センターの朴素俊博士研究員は、AI技術の国際拡散と知的財産権の研究を進めています。企業が開発途上国中小企業に自発的に技術を共有する制度的環境を分析し、グリーン技術貿易の新データセット構築にも着手しました。

Bertsimas教授はMITオープンラーニング副学長として、自身の講座「The Analytics Edge」をオンライン化し、AI翻訳機能の導入を推進しています。10億人の学習者に教育を届けるという目標を掲げ、教育の民主化に取り組んでいます。

ByteDance、AIエージェント基盤DeerFlow 2.0をOSS公開

DeerFlow 2.0の特徴

MIT Licenseで商用利用可
Docker sandbox内で安全に実行
複数サブエージェントの並列処理
長時間タスクの自律実行に対応

企業導入の論点

完全ローカル運用が可能
GPU・VRAMの大量確保が必要
ByteDanceで規制審査の対象に
独立セキュリティ監査は未実施

ByteDanceは2026年2月、AIエージェント・オーケストレーション基盤「DeerFlow 2.0」をMITライセンスでオープンソース公開しました。複数のAIサブエージェントを統合し、数時間に及ぶ複雑なタスクを自律的に実行できる「SuperAgent」フレームワークです。

DeerFlow 2.0はDockerベースのサンドボックス環境を採用し、エージェントの実行をホストシステムから完全に分離しています。ブラウザ、シェル、永続ファイルシステムを備えた独立環境で、bashコマンドの実行やファイル操作を安全に行えます。

技術的にはLangGraph 1.0LangChainで全面的に書き直された新設計です。OpenAIAnthropicDeepSeekOllamaなどモデル非依存で動作し、Kubernetes上での分散実行やSlack・Telegram連携にも対応しています。

公開後わずか数週間でGitHub上で3万9千スターを獲得し、ML研究者やインフルエンサーの間で急速に注目が高まっています。SaaSエージェントサービスの価格破壊につながるとの見方も広がっています。

一方、企業導入には課題も残ります。セットアップにはDocker・YAML・CLIの知識が必要で、独立したセキュリティ監査は未実施です。またByteDanceが開発元であるため、金融・医療・防衛など規制業種ではソフトウェアの出自に関する審査が求められる可能性があります。

MIT会議でAI開発の方向転換が議論、小規模モデル推進を提唱

消費者とAI企業の溝

消費者の過半数がAIリスク懸念
キラーアプリ不在で課金意欲低迷
企業と利用者の認識に大きな乖離

小規模AI路線の提唱

記者Karen HaoがAGI路線を批判
AlphaFold型の特化モデルを推奨
大規模計算の環境負荷を問題視

市民参加型AI開発

地域社会のニーズに応える設計
技術の軌道修正に市民の声が不可欠

MITで開催されたAIシンポジウムにおいて、ジャーナリストのKaren Hao氏と研究者のPaola Ricaurte氏が基調講演を行い、現在のAI開発の方向性に疑問を呈しました。300人以上が参加し、AIの恩恵を誰が受けるのかという根本的な問いが議論されました。

Hao氏は、大規模言語モデルの開発に使われる膨大なデータセットと計算資源の規模が不必要であると主張しました。ハイパースケールデータセンターエネルギー消費や水資源の大量使用、さらにギグエコノミー労働者への人的負担といったトレードオフを具体的に指摘しています。

代替モデルとして、ノーベル賞を受賞したAlphaFoldを例に挙げました。タンパク質構造の予測に特化した小規模モデルは、厳選されたデータセットのみを使用し、高速なスーパーコンピューティングも不要でありながら、巨大な恩恵を生み出していると説明しました。

一方、The Vergeの調査報道によれば、企業がAI導入を急ぐ一方で消費者の反応は冷ややかです。Pew Researchの調査では多くの人がAIの影響を懸念しており、NBCの世論調査でも過半数がリスクが利点を上回ると回答しました。消費者が対価を払いたいと思う画期的なユースケースがいまだ登場していないことが背景にあります。

Ricaurte氏は、コミュニティのニーズに応えない技術に意味はないと述べ、目的駆動型のAI開発を訴えました。Hao氏もAIという用語の曖昧さが建設的な議論を妨げていると指摘し、「自転車からロケットまで」という比喩で具体的な議論の必要性を強調しました。両氏は聴衆に対し、技術の軌道はまだ固定されておらず、市民一人ひとりが積極的に関与すべきだと呼びかけました。

MITとHPI、AI×創造性の研究拠点を設立

10年規模の連携構想

Hasso Plattner財団が資金提供
AI×デザイン学際研究推進
冠名教授職・大学院フェロー設置
ハッカソンや夏季交換プログラム展開

人間中心の創造性追求

情報時代から想像力の時代へ
2022年の持続可能性研究を発展
大西洋横断の共同研究体制構築

MITと独ハッソ・プラットナー研究所(HPI)は2026年3月19日、AI と創造性に関する共同研究拠点「MHACH」の設立に合意しました。Hasso Plattner財団が資金を提供し、10年間にわたる長期的な学際研究と教育プログラムを展開します。

MHACHでは冠名教授職や大学院フェローシップを設置し、AIと創造性の交差領域で継続的な研究基盤を整備します。ワークショップやハッカソン、夏季交換プログラムなど体験型の教育機会も拡充し、両機関の学生・研究者が分野を超えて協働できる環境を構築します。

MITサリー・コーンブルース学長は「情報時代が想像力の時代に移行するなか、人間の創造性に新たな重点が置かれる」と述べました。AIが創造性を損なうかではなく、新たな知性が創造プロセスをいかに深化・豊穣化できるかを探究する姿勢を示しています。

本連携は2022年に設立されたMIT MADとHPIの持続可能性デザイン研究プログラムを発展させたものです。HPIはデジタルエンジニアリングやサイバーセキュリティデザイン思考の分野で世界的な実績を持ち、人間中心イノベーションの知見を提供します。

運営委員会はMIT建築・計画学部、MITシュワルツマン・コンピューティング学部、HPIの代表者で構成されます。Hasso Plattner財団の長期的な慈善的コミットメントにより、技術革新とデザイン思考を結びつける国際的な研究教育の新たなモデルが目指されています。

MIT、生成AIで障害物透視の無線センシング精度を大幅向上

Wave-Former

ミリ波反射から隠れた物体を3D復元
生成AIが欠損形状を補完
従来手法比精度約20%向上
段ボールや壁越しの70種物体で実証

室内シーン復元

人の動きによる多重反射を活用
固定レーダー1台で部屋全体を再構成
プライバシー保護とカメラ不要を両立
既存手法の約2倍の精度を達成

MITの研究チームは、生成AIを活用してミリ波無線信号による障害物越しの物体認識精度を大幅に向上させる新手法を開発しました。IEEE CVPRで2本の論文として発表される本研究は、ロボットの隠れた物体操作や室内環境認識に革新をもたらします。

新システム「Wave-Former」は、ミリ波の反射信号から隠れた物体の部分的な3D形状を復元し、生成AIモデルが欠損部分を補完する仕組みです。ミリ波は鏡面反射の性質上、センサーに戻らない方向の情報が失われますが、AIがその空白を埋めることで精度を従来比約20%向上させました。

訓練データの不足という課題に対し、研究チームは既存の大規模画像データセットにミリ波反射の物理特性シミュレーションで組み込む手法を考案しました。これにより年単位のデータ収集を省略し、合成データセットで生成AIモデルを効率的に学習させることに成功しています。

さらに拡張システム「RISE」では、室内を移動する人体からの多重反射(ゴースト信号)を解析し、固定レーダー1台で部屋全体の家具配置を復元します。従来はノイズとして破棄されていた二次反射を逆に活用する発想で、既存手法の約2倍の精度を実現しました。

これらの技術は倉庫ロボットが出荷前に梱包内容を確認する用途や、スマートホームロボットが住人の位置を把握して安全に協働する場面での応用が期待されます。カメラを使わないためプライバシーを保護でき、移動ロボットにセンサーを搭載する必要もない点が大きな利点です。

MIT、LLMの過信を検出する新手法を開発

複数モデル比較手法

モデル間の不一致で過信を検出
自己一貫性だけでは誤答を見逃す
異なる企業のLLMをアンサンブル活用
意味的類似度で認識論的不確実性推定

統合指標の成果

10タスクで既存手法を一貫して上回る
ハルシネーション検出に高い効果
クエリ数削減で計算コストも低減
正解が一意のタスクで特に有効

MITの研究チームは、大規模言語モデル(LLM)が自信を持ちながら誤った回答を生成する「過信」問題に対処するため、複数モデル間の回答の不一致を測定する新たな不確実性定量化手法を開発しました。この研究はMIT-IBM Watson AI Labとの共同で行われています。

従来の不確実性評価手法は、同じプロンプトを繰り返し入力してモデルの回答の一貫性を測る方式が主流でした。しかしこの方法は偶然的不確実性(モデル自身の内部的な確信度)しか測定できず、モデルが確信を持って間違えるケースを検出できないという根本的な限界がありました。

新手法では、対象モデルの回答を異なる企業が開発した類似規模のLLM群の回答と比較し、意味的類似度に基づいて認識論的不確実性を推定します。研究チームは複雑な手法も試みましたが、異なる企業のモデルを使うというシンプルなアプローチが最も効果的だったと報告しています。

この認識論的不確実性と従来の偶然的不確実性を組み合わせた総合不確実性指標(TU)は、質問応答・要約・翻訳・数学推論など10種類のタスクで評価され、いずれの単独指標よりも信頼性の低い予測を正確に特定しました。さらに、TUの計算に必要なクエリ数は偶然的不確実性の算出よりも少なく済む場合があります。

一方で、事実に基づく質問応答のように正解が一意に定まるタスクでは認識論的不確実性が特に有効である一方、自由記述型タスクでは性能が低下する可能性も明らかになりました。今後は自由記述型への適応や、偶然的不確実性の他の形式の探索が研究課題として挙げられています。

元駐中国大使バーンズ氏、米中協力と競争の両立を提唱

米中競争の4領域

軍事・技術・貿易・価値観の4分野で競争
関税145%対125%で貿易停止寸前に
中国レアアース生産・加工で優位

技術と気候の接点

AI・量子・バイオが技術競争の中心
中国STEM専攻率36%、米国はわずか5%
気候変動米中協力の鍵に
クリーンエネルギー石炭依存の矛盾

外交の持続性

世界最重要の二国間関係と位置づけ
対話正常化で最悪の事態を防止

ニコラス・バーンズ元駐中国米大使は、MITエネルギーイニシアティブの講演で、米中関係の現状と今後について語りました。両国は世界最大の経済大国かつ最大の炭素排出国であり、競争と協力の両立が不可欠だと訴えました。

バーンズ氏は米中関係を「競争的・厳しい・敵対的」の3語で要約し、軍事・技術・貿易経済・価値観の4分野で競争が激化していると指摘しました。2025年の関税戦争では米国145%、中国125%の関税が課され、貿易がほぼ停止する危機に直面しました。

エネルギー分野では、中国リチウム電池・太陽光パネル・EVに不可欠なレアアースの生産加工で圧倒的な優位にあります。米国のほかインド・EU・カナダなども関連製品に関税を課しており、バーンズ氏は供給源の多様化を支持する姿勢を示しました。

技術競争においては、AI・量子コンピューティング・バイオテクノロジーが中心になっています。中国の大学1年生のSTEM専攻率は36%で、米国の5%を大きく上回ります。バーンズ氏は中国の教育重視と技術適応力の高さを評価し、技術開発だけでなく政策との統合が競争力の鍵だと述べました。

一方で気候変動は米中協力の有望な領域とされます。中国クリーンエネルギー技術で先行しつつも石炭使用を続けるという矛盾を抱えています。バーンズ氏は、破壊的な衝突を避けながら競争を管理するために対話と関与の正常化が急務であると強調しました。

MIT-IBM Watson AI Lab、若手教員の研究立ち上げを加速

研究基盤の構築支援

計算資源と知的支援の提供
NLP分野の転換期に大規模計算活用
Andreas教授の研究室立ち上げに貢献
Kim教授のニューロシンボリック研究推進

分野横断の共同研究

Solomon教授の幾何学×ML融合
Fan教授のLLMロボット制御開発
Ahmed教授の生成的最適化手法確立
産学連携で実用化まで一貫支援

MIT-IBM Watson AI Labが、MITの若手教員5名のAI研究プログラム立ち上げにおいて決定的な役割を果たしたことが明らかになりました。計算資源の提供と知的パートナーシップにより、各教員が着任初年度から野心的な研究を開始できた点が特徴です。

自然言語処理を専門とするJacob Andreas准教授は、着任直後にラボを通じて言語表現と低リソース言語のデータ拡張手法に関する初の大型プロジェクトを開始しました。NLP分野が言語モデル理解へと大きく転換する時期に、大規模計算資源を活用できたことが研究の方向性を決定づけたと述べています。

Yoon Kim准教授はポスドク時代にIBM側の共同研究者と出会い、ニューロシンボリックモデルの開発から大規模言語モデルの能力向上・効率化へと研究を発展させました。プロジェクト申請から大規模実験、ボトルネック特定、手法検証までシームレスに進められる体制が独自の強みだと評価しています。

Justin Solomon准教授はコンピュータグラフィックス機械学習の融合研究で、異なるデータセットで訓練されたAIモデルの統合に取り組んでいます。Chuchu Fan准教授はロボット工学と制御理論の交差領域で、自然言語をロボットが理解・実行できる仕様に変換するLLMベースエージェントを世界に先駆けて開発しました。

Faez Ahmed准教授は機械学習による複雑な機械システムの設計加速に取り組み、従来「ほぼ解決不可能」とされた機械リンケージ問題をAIで解決可能にしました。5名の教員の経験は、持続的な産学連携が若手研究者の研究グループ確立と科学的探求にいかに大きな影響を与えるかを示しています。

LangChain、社内コーディングエージェント基盤Open SWEを公開

主要企業の共通設計

Stripe・Ramp・Coinbaseが独自開発
隔離サンドボックスで安全に実行
Slack起点の既存ワークフロー統合
厳選ツールセットの品質重視運用

Open SWEの構成要素

Deep Agents基盤で拡張容易
サンドボックスはプラグイン式
サブエージェントによるタスク分割
ミドルウェアで確実なPR作成

LangChainは、企業が社内向けコーディングエージェントを構築するためのオープンソースフレームワーク「Open SWE」を公開しました。Deep AgentsとLangGraph上に構築され、Stripe・Ramp・Coinbaseなど大手企業が独自開発した社内エージェントの共通設計パターンを再現しています。

Open SWEの中核は隔離されたクラウドサンドボックスです。各タスクは専用のLinux環境で実行され、リポジトリのクローンとフル権限が与えられる一方、エラーの影響範囲はその環境内に封じ込められます。Modal、Daytona、Runloopなど複数のサンドボックスプロバイダーに対応しています。

ツールセットは約15種に厳選されており、シェル実行・Webフェッチ・GitHub PR作成・Linear連携・Slack返信などを備えます。Stripeが約500ツールを運用する中でも「量より品質管理が重要」と指摘しており、Open SWEもこの方針を踏襲しています。

サブエージェントとミドルウェアの二層構造が特徴です。複雑なタスクは専門の子エージェントに分割委譲され、ミドルウェアはPR自動作成やフォローアップメッセージの注入など確実に実行すべき処理を担います。これにより柔軟性と信頼性を両立させています。

呼び出しはSlack・Linear・GitHubの3チャネルに対応し、開発者は既存のワークフロー内でエージェントを起動できます。MITライセンスで公開されており、サンドボックス・モデル・ツール・システムプロンプトなど主要コンポーネントはすべてカスタマイズ可能な設計です。

Vercelがデータ収集の信頼性を高める新機能を公開

resilient intake

動的エンドポイント探索方式
単一パス依存から脱却
データ収集の欠損を削減
全チーム追加費用なしで利用可

導入と変更点

npm updateのみで設定不要
既存実装との後方互換性維持
ライセンスがMITに変更
Nuxtは1行で導入完了

Vercelは、Web AnalyticsおよびSpeed Insightsのバージョン2で「resilient intake」機能を導入しました。この新機能により、Webサイトのトラフィックデータとパフォーマンスデータの収集精度が向上します。

従来の仕組みでは単一の固定パスに依存していたため、広告ブロッカーなどによりデータが欠損するリスクがありました。新バージョンではエンドポイントを動的に探索する方式を採用し、より完全なデータ収集を実現しています。

導入方法は非常にシンプルです。@vercel/analytics@vercel/speed-insightsの最新版をnpmでインストールし、デプロイするだけで有効になります。追加の設定変更は一切不要です。

既存の実装は従来どおり動作するため、後方互換性が確保されています。また、ライセンスがApache-2.0からMITに変更され、他のオープンソースパッケージとの整合性が図られました。

本機能はすべてのチームに追加費用なしで提供されます。Nuxtアプリケーションではモジュール経由で1行のコード追加のみで導入でき、フレームワークを問わず幅広い開発環境で活用可能です。

MIT、AI×数理科学の未来描く白書を公開

科学とAIの双方向連携

科学がAIを進化させる三つの形
粒子物理のリアルタイムAIが他分野へ波及
ニューラルネットの原理解明に科学的手法

人材・組織の戦略

ケンタウロス科学者の育成が急務
学際的博士課程の拡充
物理学PhD生の10%がデータ科学併修

制度設計の提言

計算・データ基盤への協調投資
共同教員採用を初実施

MITは2025年に全米科学財団の支援を受け、AI と数理・物理科学(MPS)の未来を議論するワークショップを開催しました。天文学・化学・材料科学・数学・物理学の研究者が一堂に会し、その成果が学術誌に白書として公開されています。

白書の中心的な知見は、AIと科学の関係が双方向であるべきだという点です。AIで科学を進歩させるだけでなく、科学的推論がAIの基盤手法を改善し、科学的課題が新アルゴリズム開発を促し、科学的ツールがAIの動作原理を解明する「AIの科学」が提唱されました。

具体例として、粒子物理学の衝突実験で開発されたリアルタイムAIアルゴリズムが、物理学の枠を超えて幅広い分野に応用可能であることが示されています。2024年のノーベル物理学賞・化学賞がAI関連研究に授与されたことも、科学とAIの結びつきの深さを裏付けています。

人材面では、科学とAIの両方に精通した「ケンタウロス科学者」の育成が不可欠とされました。MITでは学際的博士課程を整備し、物理学PhD学生の約10%が統計・データ科学を併修するまでに成長しています。IAIFIフェローシップなど若手支援も充実しています。

MITシュワルツマン・コンピューティング学部と物理学科は初の共同教員採用を実施しました。白書は、組織横断的な採用・研究・教育の一貫した戦略を持つ機関がAI×科学分野をリードすると結論づけており、計算基盤への協調投資と分野横断コミュニティの構築を強く推奨しています。

MIT、視覚タスク計画の新AI手法を開発 成功率2倍に

二段階VLMの仕組み

視覚言語モデル2つを連携
画像から状況を自然言語で記述
PDDL形式に自動変換
古典的ソルバーで計画を算出

性能と汎化能力

平均成功率約70%達成
従来手法の約30%を大幅超越
未知の問題にも50%以上対応
3Dタスクで80%超の精度

MITの研究チームは、ロボットナビゲーションなど長期的な視覚タスクの計画を自動化する新たな生成AI手法を開発しました。従来手法の成功率が約30%にとどまる中、本手法は約70%を達成し、およそ2倍の性能向上を実現しています。

この手法はVLMFP(VLM誘導形式計画)と呼ばれ、2つの視覚言語モデルが連携して動作します。小型モデル「SimVLM」が画像内のシナリオを自然言語で記述し、行動シミュレーションを実行します。次に大型モデル「GenVLM」がその記述をPDDLという形式計画言語に変換します。

PDDLファイルは古典的な計画ソルバーに入力され、目標達成のためのステップごとの計画が算出されます。GenVLMはソルバーの結果とシミュレーション結果を比較し、PDDLファイルを反復的に改善することで精度を高めています。

本手法の大きな強みは汎化能力です。PDDLのドメインファイルは同一環境の全問題で共通のため、未知の問題にも柔軟に対応できます。2D計画タスクで約60%、マルチロボット協調やロボット組立などの3Dタスクでは80%超の成功率を記録しました。

研究チームは今後、より複雑なシナリオへの対応と、VLMのハルシネーションを検出・軽減する手法の探求を進める方針です。本研究はMIT-IBM Watson AI Labの支援を受け、国際学会ICLRで発表予定です。

MIT、人類学×CS融合の新講座でヒューマンなAI設計を教育

講座の特徴と狙い

人類学とCS の学際講座
言語人類学の手法をAI設計に応用
人文科学の単位要件も同時に充足
MIT MADの助成で開発

学生プロジェクト事例

Pond:社会人適応支援ボット
News Nest:鳥キャラで健全なニュース体験
:複数AIの推理ゲーム
実務直結でインターン内定の実績

MITは2026年春学期、人類学者と計算機科学者が共同で設計した学際講座「Humane UXD」を開講しました。人間のインタラクションや対人ニーズをプログラミングに統合する手法を教え、学生がヒューマンなAIチャットボットを設計できるようにすることを目指しています。

講座を共同開発したのは、データ可視化を専門とするArvind Satyanarayan教授と、コミュニケーション研究が専門の人類学者Graham Jones教授です。両者はMIT Morningside Academy for Designの助成を受け、言語人類学のインタビュー手法や会話分析をAI設計に応用するカリキュラムを構築しました。

学生チームが開発した「Pond」は、大学卒業後の社会人生活への適応を支援するチャットボットです。社会生活・職業生活・大人のスキルの3領域で助言を提供し、ロールプレイ機能やポイント制度を備えることで、ユーザーが自立的にスキルを習得できる設計となっています。

News Nest」は10種の鳥キャラクターが各ニュース分野を担当し、若者のドゥームスクローリングを防止する設計です。情報源や政治的傾向を常に表示するメディア透明性を確保し、人間キャラクターではなく鳥を採用することで感情操作やエンゲージメント罠からの緩衝材としています。

第3のプロジェクト「」は、GeminiChatGPTGrokClaudeの4つのAIが異なる人格として参加するマルチエージェント推理ゲームです。ユーザーは5人目のプレイヤーとして犯人を推理し、AIが真実を語るか嘘をつくかを見極める必要があります。

この講座は学際教育の成功モデルとして注目されています。受講生の一人はチャットボット企業でのインターン選考に合格し、講座での学びが実務と直結していると報告しました。計算機科学の学生が人文科学の必修単位を取得しながらキャリアに直結するスキルを習得できる点が高く評価されています。

MIT研究者、AIで腫瘍進化の予測モデル構築に挑む

ecDNAと腫瘍進化

染色体外DNAが腫瘍の25%に存在
脳・肺・卵巣がんなど悪性度の高いがんに集中
治療耐性獲得を加速する機構の解明

AI活用の研究手法

単一細胞系譜追跡技術で進化過程を解析
機械学習で変異出現時期を特定
患者層別化と薬剤耐性克服が目標

MIT研究環境の強み

Koch研究所で工学と生物学が融合
計算科学と実験技術の両立を追求

MIT生物学部のMatthew G. Jones助教は、人工知能機械学習を活用して腫瘍の進化パターンを予測する計算モデルの構築に取り組んでいます。がん細胞が治療に対して耐性を獲得する過程を解明し、患者の治療成績を改善することが最終目標です。

がん治療において、患者が当初は治療に反応しても、やがて腫瘍が進化して治療が効かなくなるケースが頻繁に発生します。腫瘍は遺伝子構成やタンパク質シグナル、細胞動態を変化させる驚異的な能力を持ち、制御不能な状態へと移行していきます。

研究の中心は染色体外DNA(ecDNA)と呼ばれるDNA増幅現象です。染色体から切り出されて環状化したecDNAは、1960年代に発見された当初はまれな現象とされていましたが、次世代シーケンシング技術の進歩により、がん全体の約25%に存在することが判明しました。

Jones助教のチームは単一細胞系譜追跡技術を活用し、個々の細胞の進化履歴を解析しています。これにより、攻撃的な変異がいつ腫瘍の歴史に現れたかを特定し、リアルタイムでは観察できない動的プロセスの理解を目指しています。将来的には薬剤への反応予測や新規治療標的の同定につなげる計画です。

研究拠点であるMITKoch統合がん研究所は、工学と基礎科学の融合を促進する設計がなされており、計算科学の研究室と実験室が隣接しています。ボストン地域の生物医学研究機関との連携も可能で、学際的な研究を推進する理想的な環境が整っています。

MIT Media Lab パラディソ教授、センシング技術で芸術・医療・生態学を融合

ウェアラブル革新

16センサー搭載の靴を1997年開発
ダンス動作からリアルタイム音楽生成
現在のスマートウォッチの先駆け

医療・スポーツ応用

2006年にスポーツ医学へ転用
エリート選手の怪我リスクを評価
臨床設備なしで生体力学モニタリング

環境・生態系への展開

ナショジオと野生動物追跡で協働
AI搭載音響センサーで絶滅危惧ミツバチ監視

MITメディアラボのジョセフ・パラディソ教授が、センシング技術を芸術・医療・生態学の分野横断的に応用する研究でIEEEフェローに選出されました。同氏は物理学の博士号を持ち、レスポンシブ・エンバイロメンツ研究グループを率いています。

パラディソ教授はウェアラブルセンシングの先駆者として、1997年に片足16個のセンサーを埋め込んだ靴を開発しました。装着者の動きがアルゴリズムを通じてリアルタイムで音楽を生成する仕組みで、拡張ダンスパフォーマンスを実現しました。

当時は多数のセンサーを列挙すると笑われたと同教授は振り返りますが、現在ではスマートウォッチが同様の計測を日常的に行っています。初期のプロトタイプから日用技術への進化は、同教授の研究が現代のウェアラブル機器の基盤を築いたことを示しています。

研究は個人から集団へと拡大し、ダンスアンサンブルが集合的な動きで音楽を創るプラットフォームを開発しました。2006年にはエリートアスリートを支援する医師と連携し、小型ウェアラブルセンサー群で怪我リスク・パフォーマンス・回復を現場で評価する技術を実用化しています。

近年はナショナルジオグラフィックの探検家と協力し、ボツワナのライオンやハイエナ、チリのヤギに低電力追跡デバイスを装着しています。さらにパタゴニアではAI搭載音響センサーで絶滅危惧のミツバチ個体群を監視し、生態系の変化を把握する新たな手段を提供しています。

パラディソ教授の研究は、技術の目新しさ自体が目的ではなく、人間がより知覚的になり、より深くつながり、大きなシステムの中での自分の位置を認識するための増幅装置としてテクノロジーを活用する姿勢を貫いています。MITの基礎研究が長期にわたり新分野を開拓する好例です。

解雇された専門職がAI訓練データの低賃金ギグワーカーに

AI訓練データ産業の実態

Mercor等が専門職を大量採用
弁護士・博士号保持者がギグ労働へ
時給16ドルへの賃下げも常態化
監視ソフトで作業時間を秒単位管理

構造的搾取の連鎖

機密保持契約で交渉力を剥奪
プロジェクト突然終了が日常化
独立請負人扱いで労働保護なし
カリフォルニアで集団訴訟が相次ぐ

MercorScale AIなどのデータ企業が、解雇された弁護士・博士号保持者・脚本家らを大量に採用し、AIモデルの訓練データを生産させる巨大なギグエコノミーが急速に拡大しています。Mercorだけで毎週約3万人の専門職がプラットフォーム上で作業しています。

作業内容は、チャットボットの理想的な回答を書く「ゴールデンアウトプット」の作成、AIを困らせる難問「スタンパー」の考案、企業シミュレーションの「ワールドビルディング」など多岐にわたります。労働者は誰のAIを訓練しているか知らされず、厳格な機密保持契約により経験を市場で活用することもできません。

労働条件は急速に悪化しています。当初は時給45ドルだった報酬が16ドルまで引き下げられるケースもあり、Insightfulという監視ソフトが作業を秒単位で追跡します。数分間タイピングがなければ警告が表示され、「非生産的」とみなされた時間は給与から差し引かれる仕組みです。

MIT経済学教授のダロン・アセモグル氏は、産業革命前の織工が工場労働者に転落した歴史と比較し、技術そのものではなく資本家に全権力を集中させる労働組織の問題だと指摘します。データ労働者はUberドライバーよりも不利な立場にあり、物理的な場所に縛られないため企業は容易に低賃金地域から代替要員を調達できます。

過去6カ月でMercorに対し3件の集団訴訟が提起され、労働者の独立請負人としての分類が争われています。専門家は、データ経済における労働者保護の法的基盤が整備されなければ、あらゆる専門職が底辺への競争に巻き込まれると警告しており、集団的交渉権の確立が急務となっています。

a16zが提唱、データエージェントに不可欠な「コンテキスト層」

エージェント失敗の本質

業務定義の欠如が主因
収益の定義すら組織で不統一
セマンティック層は陳腐化
データソースの正解が不明確

コンテキスト層の構築手順

全データソースへの接続が前提
LLMで初期コンテキスト自動生成
暗黙知は人間が補完
APIやMCPエージェントに接続

Andreessen Horowitza16z)は、企業のデータエージェントが基本的な質問にすら正確に答えられない原因として、ビジネスコンテキストの欠如を指摘しました。MITの2025年報告でもAI導入の大半が失敗していると警告されています。

問題の核心はテキストtoSQLの精度だけではありません。「先四半期の収益成長率は?」という単純な質問でも、収益の定義がARRか実行レートかで異なり、会計年度の区切りも企業ごとに違うため、エージェントは正しいデータを特定できないのです。

従来のセマンティック層はBI向けの指標定義には有効でしたが、退職した担当者が更新を放置し、新規プロダクトラインが反映されないなどの問題が頻発しています。エージェントの自律動作には、より包括的なコンテキスト基盤が必要です。

a16zが提唱するコンテキストは5段階で構築します。まず全データソースへのアクセスを確保し、LLMでクエリ履歴やdbtモデルから自動的にコンテキストを収集します。次に人間が暗黙知を補完し、APIやMCPエージェントに接続します。

市場ではDatabricksSnowflakeなどのデータ基盤企業、既存のAIデータ分析企業、そして新興の専用コンテキスト層企業が競合しています。OpenAIも自社内データエージェントの構築過程を公開しており、この領域の重要性が広く認識され始めています。

Claude CodeがOSSライセンス問題を引き起こす

AI書き換えの経緯

chardetがv7.0に大幅改訂
Claude Codeで約5日間で再設計
処理速度が48倍向上
LGPLからMITへライセンス変更

法的・倫理的論争

原作者Pilgrimが不正なライセンス変更と主張
LGPLコードの派生物はLGPL継承が原則
AIを使ったクリーンルーム再実装の合法性に疑問
OSSコミュニティで波紋が広がる

2026年3月、Pythonライブラリ「chardet」のメンテナーDan BlanchardがClaude Codeを活用してv7.0を公開した。処理速度は従来比48倍に向上し、ライセンスもLGPLからMITに変更された。

Blanchardは、chardetをPython標準ライブラリに組み込むためにはライセンス・速度・精度の三つの課題を解決する必要があると長年感じていました。Claude Codeの支援により、これらの課題を約5日間で解決することができました。

しかし原作者のMark PilgrimがGitHubのIssueに登場し、この新バージョンはLGPLで保護された自身のコードの派生物であり、MITへのライセンス変更は不正だと主張しています。LGPLはクローズドソースプロジェクトでの利用を制限する条件を持ちます。

問題の本質はAIによる「クリーンルーム」再実装がどこまで法的に有効かという点にあります。従来のクリーンルーム手法では実装チームをソースコードから完全に隔離しますが、AIコーディングツールはその境界線を曖昧にする可能性があります。

この事例はAIがオープンソースソフトウェアの著作権・ライセンス体系に与える影響を示す先例として注目されています。経営者エンジニアはAIを活用したコード再実装を行う際に法的リスクを十分に検討する必要があります。

MITがAI予測の説明精度を高める新手法を開発

手法の革新性

概念ボトルネックモデルを改良
モデル自身が学習した概念を抽出
スパース自己符号化器で特徴選択
多モーダルLLMが自然言語に変換
予測に使う概念を5個に制限

性能と今後の課題

鳥種・皮膚病変タスクで最高精度
情報漏洩問題が残存
ブラックボックスモデルには未到達
大規模LLMによるスケールアップ計画
知識グラフとの統合に期待

MITのコンピュータ科学・人工知能研究所(CSAIL)は、AIの予測根拠を人間が理解できる概念で説明する「概念ボトルネックモデル(CBM)」の精度と説明品質を大幅に向上させる新手法を開発し、国際会議ICLRで発表した。

従来のCBMでは、臨床医などの専門家が事前に定義した概念をモデルに与えていたが、タスクに無関係な概念が含まれる場合に精度が低下するという課題があった。また、モデルが意図しない概念を秘密裏に使用する「情報漏洩」も問題となっていた。

新手法では、スパース自己符号化器と呼ばれる深層学習モデルがターゲットモデルの内部から最も関連性の高い特徴量を自動抽出し、多モーダルLLMがそれを平易な自然言語の概念に変換する。これにより、事前定義不要でタスク固有の概念を獲得できる。

精度向上に加え、各予測に使用する概念数を5個に制限することで説明の簡潔性も確保した。鳥種分類や皮膚病変識別の医療画像タスクで既存のCBMを上回る精度を達成し、概念のタスク適合性も高いことが確認された。

筆頭著者のミラノ工科大学のAntonio De Santis氏は「ブラックボックスAIのアカウンタビリティ向上につながる」と述べており、今後は情報漏洩対策の強化と大規模データセットへの適用拡張を目指す。説明可能AIと記号AIの架け橋となる研究として注目される。

MIT研究者ら超党派で「人間中心AI宣言」を発表、超知能開発の禁止を提唱

宣言の5つの柱

超知能開発の一時禁止を明記
人間による制御維持を最優先
権力集中の回避を要求
自己複製型AIの設計禁止
AI企業への法的責任追及

政治的背景

国防総省がAnthropicを排除
OpenAIが国防総省と契約締結
議会の不作為が問題を深刻化

今後の展望

子どもの安全が規制突破口に
バノン氏とライス氏が超党派で署名
出荷前テスト義務化を段階的拡大

2026年3月、MIT物理学者のマックス・テグマーク氏らが主導する超党派の有識者連合が「人間中心AI宣言」を公表しました。数百人の専門家や元政府高官が署名し、責任あるAI開発の枠組みを初めて体系的に提示したものです。

宣言は5つの柱を掲げています。人間による制御の維持、権力集中の回避、人間体験の保護、個人の自由の保全、そしてAI企業への法的責任の追及です。特に注目すべきは、安全性に関する科学的コンセンサスと民主的合意が得られるまで超知能の開発を全面禁止するという条項です。

この宣言が発表された背景には、米政府のAI政策の混乱があります。2月末にヘグセス国防長官Anthropicを「サプライチェーンリスク」に指定し、直後にOpenAIが国防総省と独自契約を結びました。専門家はこの一連の出来事を「AIの制御をめぐる国家的議論の始まり」と位置づけています。

テグマーク氏は規制の突破口として子どもの安全を挙げています。チャットボットや対話型アプリの出荷前テストを義務化し、自殺念慮の増加や精神的操作といったリスクを事前に検証すべきだと主張しています。この原則が確立されれば、バイオ兵器への悪用防止や超知能の暴走防止へと対象が自然に拡大するとの見通しを示しました。

トランプ顧問のスティーブ・バノン氏とオバマ政権のスーザン・ライス元国家安全保障担当補佐官が同じ文書に署名したことは、AI規制が党派を超えた課題であることを象徴しています。テグマーク氏は「人間の未来か機械の未来かという問いに対して、全員が同じ側に立つのは当然だ」と述べています。

MIT発、LLMメモリを50分の1に圧縮する新手法が登場

KVキャッシュの課題

KVキャッシュが長文処理の最大障壁
従来の圧縮は高圧縮率で精度急落
テキスト要約は重要情報を喪失
勾配ベース手法は数時間のGPU計算が必要

Attention Matchingの革新

50倍圧縮でも精度維持を実現
代数的手法で数秒の高速処理
参照クエリで圧縮品質を担保
オープンウェイトモデルが利用条件

MITの研究チームが、大規模言語モデル(LLM)の推論時メモリであるKVキャッシュを最大50分の1に圧縮する新手法「Attention Matching」を発表しました。精度をほぼ維持したまま数秒で処理が完了する点が最大の特徴です。

LLMはトークンを逐次生成する際、過去の全トークンのキー・バリュー対をKVキャッシュに保持します。長文の法務文書分析や自律型コーディングエージェントなどの企業用途では、1リクエストで数GBに膨張し、同時処理数やバッチサイズを大幅に制限する深刻なボトルネックとなっていました。

従来の対処法には、重要度の低いトークンの削除やトークン統合がありますが、高圧縮率では精度が急激に低下します。テキスト要約による代替も、医療記録のような情報密度の高い文書ではコンテキストなしと同等の精度まで劣化することが実験で確認されました。勾配ベースの「Cartridges」手法は高品質ですが、1コンテキストの圧縮に数時間を要し実用性に欠けていました。

Attention Matchingは、圧縮後のメモリが元のメモリと同じ「注意出力」と「注意質量」を再現するよう設計されています。事前に生成した参照クエリを用いて保持すべきキーを選択し、通常最小二乗法などの代数的手法で値を算出します。勾配降下を完全に回避することで、処理速度が桁違いに高速化されました。チャンク単位の分割処理により長文への対応も実現しています。

Llama 3.1やQwen-3を用いた実験では、読解ベンチマーク「QuALITY」と6万トークンの医療記録データセット「LongHealth」の両方で有効性が確認されました。テキスト要約との組み合わせでは200倍圧縮も達成しています。数学推論テスト「AIME」では、メモリ上限に達するたびに50%圧縮を最大6回繰り返しても、無制限メモリと同等の性能を維持しました。

ただし、この手法の導入にはモデルの重みへのアクセスが必要であり、クローズドAPIのみを利用する企業は自社実装ができません。また、既存の推論エンジンへの統合にはプレフィックスキャッシュや可変長メモリパッキングとの調整が必要です。研究チームはコードを公開済みで、大規模なツール出力や長文文書の取り込み直後の圧縮が有望なユースケースだと述べています。

Google、ベクトルDB不要の常時稼働メモリエージェントをOSS公開

アーキテクチャの特徴

ベクトルDB・埋め込み不要の設計
SQLiteで構造化メモリを保存
30分間隔で自動メモリ統合
テキスト・画像音声動画に対応

経済性と技術基盤

Gemini 3.1 Flash-Liteで低コスト運用
入力100万トークンあたり0.25ドル
ADKフレームワークで構築

企業導入の課題

記憶のガバナンスが最大の論点
ドリフトとループの運用コスト懸念

GoogleのシニアAIプロダクトマネージャーShubham Saboo氏が、エージェントの永続メモリ問題に取り組むオープンソースプロジェクト「Always On Memory Agent」をGoogle Cloud PlatformGitHubMITライセンスで公開しました。従来のベクトルデータベースに依存しない新しいアプローチが注目を集めています。

このエージェントGoogle ADK(Agent Development Kit)と低コストモデルGemini 3.1 Flash-Liteを基盤に構築されています。常時稼働で情報を取り込み、SQLiteに構造化メモリとして保存し、30分ごとにバックグラウンドでメモリ統合を実行します。ベクトル検索の代わりにLLM自体がメモリの整理・更新を担う設計です。

Flash-Liteは入力100万トークンあたり0.25ドル、出力100万トークンあたり1.50ドルという低価格で、Gemini 2.5 Flashと比較して初回トークン生成速度が2.5倍、出力速度が45%向上しています。24時間稼働するメモリエージェントの経済的実現可能性を支える重要な要素となっています。

一方で、エンタープライズ導入に向けたガバナンス面の課題が識者から指摘されています。エージェントがバックグラウンドでメモリを統合・交差させる仕組みは「コンプライアンス上の悪夢」になりうるとの警告や、常時稼働エージェントの真のコストはトークンではなく「ドリフトとループ」だという意見が寄せられています。

現時点では、決定論的なポリシー境界、保持保証、監査ワークフローといった企業向けコンプライアンス制御は未実装です。しかし、単発アシスタントから長期記憶を持つシステムへの移行が進む中、このプロジェクトは次世代エージェント基盤の具体的なリファレンス実装として位置づけられます。記憶能力そのものより、記憶を安全に管理できるかが企業採用の鍵となるでしょう。

OpenAIがAI学習効果の長期測定フレームワークを開発

測定スイートの概要

学習成果測定スイートを新開発
タルトゥ大学・スタンフォードと共同設計
学習者の縦断的な変化を追跡
認知・メタ認知の標準指標を統合
エストニアで2万人規模の検証開始

スタディモード研究成果

300人超の大学生無作為化試験実施
経済学で約15%のスコア向上確認
長期的な学習定着が今後の課題

OpenAIは、AI が学習成果に与える影響を長期的に測定するための「学習成果測定スイート」を開発したと発表しました。エストニアのタルトゥ大学およびスタンフォード大学のSCALEイニシアティブと共同で設計されたこのフレームワークは、教育機関や研究者が多様な文脈でAIの学習効果を評価できるよう支援します。

従来の研究手法はテストスコアなど短期的な指標に依存しており、AIが学習者の思考力や自律性に与える長期的な影響を捉えることができませんでした。同スイートはこの課題を解決するため、モデルの振る舞い・学習者の反応・認知的成果という三つのシグナルを統合的に分析する仕組みを備えています。

先行研究として、OpenAIChatGPTのスタディモードを用いた300人超の大学生対象の無作為化比較試験を実施しました。ミクロ経済学の試験では、スタディモードを利用した学生が対照群と比較して約15%高いスコアを記録するなど、教育的に設計されたAI対話が成績向上に寄与する可能性が示されました。

測定スイートには、学習中の重要な瞬間を自動検出するインタラクション分類器、教育学的原則に基づいて各学習場面を評価するグレーダー、そして同一学習者の経時的変化を追跡する縦断的グレーダーが含まれます。自律的動機づけ・課題への粘り強さ・メタ認知・記憶の正確性といった包括的な学習能力の変化を捉えることが可能です。

現在、エストニアで16〜18歳の学生2万人を対象とした大規模検証が進行中です。今後はアリゾナ州立大学・UCL・MITメディアラボなどLearning Labの参加機関とも研究を拡大し、測定スイートを世界中の教育機関が利用できる公共リソースとして公開する計画です。

MIT、数百変数の最適化を最大100倍高速化する基盤モデル手法を開発

手法の核心

表形式基盤モデルを代理モデルに活用
重要変数を自動特定し探索を集中
再学習不要で異なる問題に即適用
従来比10〜100倍の高速化を実証

応用と展望

電力系統や衝突安全設計で検証
高次元ほど性能優位が拡大
創薬・材料開発への応用を視野
将来は数百万変数規模を目指す

MITの研究チームは、数百の設計変数を持つ複雑なエンジニアリング問題を従来手法の10〜100倍の速度で解く新たな最適化手法を開発しました。国際学習表現会議(ICLR)で発表される本研究は、古典的なベイズ最適化基盤モデルを組み合わせた点が革新的です。

本手法の中核は「表形式基盤モデル」と呼ばれる生成AIです。大規模言語モデルがテキストを扱うように、この基盤モデルは膨大な表形式データで事前学習されており、スプレッドシート版ChatGPTとも形容されます。エンジニアリング分野ではテキストより表形式データが一般的であり、実務との親和性が高い点が特徴です。

従来のベイズ最適化では反復ごとに代理モデルの再学習が必要で、変数が増えると計算コストが急増していました。新手法では事前学習済みの基盤モデルをそのまま使用するため再学習が不要であり、異なる問題にも一つのアルゴリズムで対応できます。設計空間のうち結果に最も影響する変数を自動的に特定し、探索を集中させる工夫も施されています。

60件のベンチマーク問題で5つの最先端手法と比較した結果、電力系統設計や自動車の衝突試験シミュレーションなど現実的な課題で一貫して最良の解を高速に発見しました。問題の次元数が増えるほど優位性が拡大する傾向も確認されています。ただしロボット経路計画など一部の課題では既存手法を上回れず、訓練データの網羅性が課題として残ります。

研究チームは今後、表形式基盤モデルの性能向上手法を研究するとともに、数千から数百万変数を持つ艦船設計などへの適用を目指しています。基盤モデルを言語や画像認識だけでなく科学・工学ツール内部のアルゴリズムエンジンとして活用する潮流を示す成果として、創薬や材料開発など高コスト評価を伴う分野への波及が期待されます。

Microsoft、150億パラメータの視覚推論モデルPhi-4をオープン公開

モデルの特徴と性能

150億パラメータの軽量マルチモーダルモデル
競合比5分の1のデータ量で訓練
数学・科学推論GUI操作に特化
精度と推論速度のパレート最適を実現

推論の選択的制御

思考・非思考の混合モード搭載
画像認識は直接応答で低遅延実現
数学問題は段階的推論で精度向上
ユーザーがモード手動切替も可能

公開とエコシステム展開

HuggingFaceGitHub重み公開
Phiファミリーがロボティクス領域にも拡大

Microsoft Researchは、150億パラメータのオープンウェイト・マルチモーダル推論モデルPhi-4-reasoning-vision-15B」を公開しました。テキストと画像の両方を処理し、数学・科学の推論、チャート読解、GUI操作など幅広いタスクに対応します。

最大の特徴は訓練効率の高さです。約2000億トークンのマルチモーダルデータで訓練されており、QwenGemma3など競合モデルが1兆トークン以上を使用するのに対し、およそ5分の1のデータ量にとどまります。その秘訣はオープンソースデータの徹底的なフィルタリングと品質改善にあります。

技術的に注目すべきは「混合推論」アプローチです。訓練データの約20%に思考過程を含む推論サンプルを、80%に直接応答のサンプルを使用し、モデルがタスクに応じて推論の要否を自動判断する仕組みを実現しました。画像キャプションでは即座に応答し、数学では段階的に思考します。

ベンチマーク評価では、ChartQAで83.3、MathVistaで75.2、ScreenSpot v2で88.2のスコアを記録しました。大型モデルのQwen3-VL-32Bには及ばないものの、同規模モデルを上回り、推論速度と精度のバランスでパレート最前線に位置しています。

Microsoftは本モデルをMIT許容ライセンスで公開し、ファインチューニングコードや評価ログも提供しています。Phiファミリーはエッジデバイス向けのPhi Silicaロボティクス向けのRho-alphaにも拡大しており、「最も賢いモデルは最大のモデルではなく、いつ考えるべきか知っているモデルだ」という戦略を鮮明にしています。

MITが水中ロボのプログラミング技術を紹介

MITは水中ロボット向けプログラミング研究を紹介する動画フィーチャーを公開しました。AI・ロボティクス海洋探査の交差点での研究事例です。

AI×ロボティクス研究の教育的コンテンツとして一定の参考価値がありますが、即時ビジネス価値は低い学術的内容です。

MITがLLM訓練効率の向上手法を発表

新手法の内容

訓練中の計算リソース配分を最適化
同等性能をより少ない計算コストで実現
LLM開発のコスト障壁を下げる可能性

MITの研究者が大規模言語モデルの訓練効率を向上させる新しい手法を発表しました。この手法により同等のモデル性能をより少ない計算リソースで達成できる可能性があります。

LLM訓練コストの削減はAI民主化の観点から重要で、大手企業以外もAI開発に参入しやすくなります。研究の実用化に向けた進展が期待されます。

MITが細胞生物の全体像把握AIを開発

研究ツールの概要

遺伝子発現データから癌の起源を特定
測定方法の違いによるデータバイアスを補正
細胞の複雑な層を横断して全体像を把握

医療への応用

癌治療の最適化に貢献
臨床生物学者の研究効率を大幅向上
バイオインフォマティクスの新ツール

MITの研究者は、癌患者の細胞における遺伝子発現を分析し、癌の起源の特定や治療成功率の予測に役立てるAIツールを開発しました。細胞は複雑な構造を持ち、測定方法によって得られるデータが異なるため、全体像を把握することは難しい問題でした。

このAIツールは異なる測定方法から得られたデータの偏りを補正し、細胞生物学の全体的なパターンを可視化します。癌研究における診断精度の向上と個別化医療の推進に貢献することが期待されます。

MITが海事サイバーセキュリティ研究

研究の概要

海事システムのサイバー攻撃リスクを分析
技術的防衛と政策的対応を統合
モンテネグロ出身研究者の国際的視点

重要インフラへの示唆

サプライチェーンと海運の安全に直結
AIを悪用した攻撃への耐性強化
国際協調の枠組みが必要

MITの研究者Strahinja Janjusevic氏は海事サイバーセキュリティを技術と政策の両面から強化するための枠組みを研究しています。海事インフラへのサイバー攻撃はグローバルサプライチェーンに直接的な影響を与えます。

AIを活用した攻撃の精度が高まる中、海運・港湾システムの防衛には技術的対策だけでなく、国際的な政策協調と規制枠組みの整備が不可欠です。

MITがAIと物理で機能するデザインを設計

技術的革新

生成AIと物理シミュレーションの融合
見た目は良いが機能しない問題を解決
3Dデザインを物理法則に準拠させる

応用可能性

個人向けアクセサリーのカスタム設計に応用
製造・プロダクトデザインの効率化
3Dプリンティングとの組み合わせが有力

MITの研究者は、生成AIが見栄えの良いデザインを生成しても現実世界で機能しないという問題を解決するため、生成AIと物理シミュレーションを組み合わせた新しい設計手法を開発しました。

この手法により、生成AIが作成した3Dデザインが物理的な制約(重力、材料強度、使用時の応力など)を自動的に満たすよう最適化されます。パーソナライズされたアクセサリーや家庭用品の設計・3Dプリンティングへの応用が期待されます。

J-PALが貧困対策AIイノベーションの検証・拡大研究拠点を設立

研究拠点の目的

貧困対策へのAI応用を厳密に検証・拡大
開発途上国でのフィールド実験にAIを統合
社会影響を科学的に測定するフレームワーク

MITのJ-PAL(貧困行動研究所)が、AIイノベーションを貧困対策に活用するための新しい研究・政策立案イニシアチブを開始しました。AIが社会問題解決においてどれだけ効果的かを厳密な実験で測定します。

J-PALのアプローチは単なる技術導入ではなく、ランダム化比較試験(RCT)などの手法でAI介入の実際の効果を測定し、効果が確認されたものをスケールアップする科学的な方法論です。

AI技術が先進国だけでなく開発途上国の貧困削減にも貢献できるかを検証するこの取り組みは、AIの社会的価値を評価する上で重要な研究です。

MITが合成生物学とAIで抗菌薬耐性の世界的脅威に挑む

研究の概要

MIT教授が合成生物学×AIの学際研究を主導
グローバルな薬剤耐性菌問題への新アプローチ
AI駆動の創薬加速で次世代抗菌薬を開発

MITのJames J. Collins教授が合成生物学とAIを組み合わせて抗菌薬耐性(AMR)問題に取り組む多分野にまたがる研究プロジェクトを始動しました。世界保健機関が「見えない危機」と警告する薬剤耐性菌問題への科学的対応です。

AIは膨大な分子構造データから既存の抗菌薬では効かない耐性菌に有効な新化合物を予測する能力を持ちます。これを合成生物学と組み合わせることで、創薬プロセスを劇的に加速させることが目標です。

抗菌薬耐性は2050年までに年間1000万人の死者を出す可能性があるとされており、AIを活用した科学的アプローチによる解決が急務となっています。

MITが「壊滅的忘却」防ぐ新ファインチューニング手法を開発

技術的ブレークスルー

LLMが既存スキルを失わずに新スキルを習得可能
壊滅的忘却問題への実用的解決策を提示
企業のモデル管理コストを大幅に削減

MITとImproba Labsの研究者が、LLMに新しいスキルを教えても既存の知識を失わない新しいファインチューニング手法を発表しました。これまでの手法では新タスクへの適応(ファインチューニング)が既存の能力低下(壊滅的忘却)を引き起こすという根本的な課題がありました。

この問題はエンタープライズ向けLLM活用において深刻です。特定業務に特化したモデルを作ろうとすると、汎用的な能力が失われ、結果としてスキルごとに別々のモデルを維持管理する必要が生じていました。

新手法によりこのサイクルが断ち切られれば、企業は単一のモデルを継続的に成長させることができ、モデル管理の複雑さとコストを大幅に削減できます。実用化に向けた検証が今後の焦点となります。

MIT、脳幹の白質経路をAIで追跡可能に

研究の成果

白質繊維束の高精度追跡
従来不可能だった解像度
脳幹の神経ケーブル可視化

医療への応用

意識や呼吸の神経経路解明
脳外科手術の精度向上
神経疾患診断への貢献

MITの研究チームが開発したAIアルゴリズムにより、脳幹の白質繊維束を従来にない精度で追跡することが可能になりました。

白質繊維は意識、睡眠、呼吸、心拍、運動など重要な機能を制御する神経ケーブルですが、これまでの画像技術では十分に解像できませんでした。

新しいAIアルゴリズムはこの課題を克服し、脳幹内の神経経路を高精度で可視化することを実現しています。

この技術は脳外科手術の計画精度向上や、神経疾患の診断改善に直接的な応用が期待されます。臨床医療への貢献が見込まれます。

AIと医療画像の融合は急速に進展しており、今回の成果は脳神経科学の新たなフロンティアを開くものです。

AIがフィギュアスケートの技術革新を加速

OOFSkateの仕組み

姿勢推定でジャンプ解析
NBC五輪中継に技術提供
5回転の実現可能性を示唆

AI音楽の波紋

チェコ組がAI楽曲で演技
ルール上は違反なしと判明
芸術性の定義に議論

MITの研究者Jerry Lu氏が開発したOOFSkateは、AIを用いてフィギュアスケートのジャンプ動画を解析し、改善点を提案する光学追跡システムです。

同システムはNBC Sportsと連携し、2026年ミラノ五輪の中継で視聴者に採点の複雑さを解説する役割を担います。姿勢推定技術がスケートに最適な理由も明らかにされました。

MIT Sports LabのHosoi教授は、AIが美的評価を行う際の推論過程を研究中です。5回転ジャンプの実現可能性についても計算上は可能と結論づけています。

一方、チェコのアイスダンスペアは五輪デビュー戦でAI生成音楽を使用しました。公式ルールには抵触しませんが、芸術性における人間の創造性の意味が問われています。

スポーツへのAI活用は、パフォーマンス最適化からコンテンツ生成まで広がりを見せています。人間の能力の限界とAIの役割の境界が議論の焦点になっています。

MITがLLMランキングプラットフォームの信頼性に疑問符

研究の主な発見

少数のユーザーデータ削除でランキングが大幅変動
クラウドソースデータの偏りが評価を歪める
このLLMが最適」という判断が覆る可能性
使用目的や業界への適合性を見落とすリスク
Chatbot Arena型評価手法の構造的限界を指摘

企業・チームへの示唆

一般的なLLMベンチマークを鵜呑みにする危険
自社ユースケースでの独自評価が不可欠
小規模テストでもリーダーボードが変わる脆弱性
業務用途に特化した社内ベンチマークを設計すべき
評価プラットフォームの透明性向上を求める声

MITの研究者たちは、LLM(大規模言語モデル)のランキングプラットフォームが構造的に信頼性に欠けることを示す研究を発表しました。クラウドソースデータの一部(ごく少数のインタラクション)を削除するだけで、どのモデルが上位になるかが大きく変わることを実証しました。

多くの企業がSalesforce向けに最適なLLMはどれか、カスタマーサポートのトリアージに最適なLLMはどれかを判断する際にこれらのプラットフォームに依存しています。しかしMITの研究は、このような判断が統計的に脆弱な根拠の上に成り立っている可能性を示しています。

特定の小さなユーザーグループの好みがプラットフォーム全体のランキングを左右できることは、汎用的なLLM評価が特定のデモグラフィックに偏りがちであることを意味します。企業が自社の顧客・ユースケースに最も適したモデルを選ぶ際には独自評価が不可欠です。

この研究は「プラットフォームがLLMを比較する際のベストプラクティスを中心に設計されていない」という根本的な問題を浮かび上がらせています。評価方法論の透明性と堅牢性の改善が業界全体の課題です。

実務的な示唆は明確です。LLM選定において一般公開ランキングだけに頼らず、自社の具体的なユースケースに対する社内評価フレームワークを構築することが、AI投資対効果の最大化につながります。

MIT学長が米国の研究力とサイエンスの重要性を公共ラジオで訴える

発言の内容

MIT学長が研究費削減に警鐘
これは科学だ」と強く主張
連邦研究予算への危機感
国家競争力と科学の相関
GBH公共ラジオでのインタビュー
産学連携の重要性を訴求

政策・教育への示唆

AI開発の基盤となる基礎研究
大学研究予算確保の緊急性
国際競争での科学力の役割

MIT学長はボストンの公共ラジオ局GBHの番組「Boston Public Radio」に出演し、米国の研究基盤の重要性について強く訴えた。

発言はトランプ政権による連邦研究予算削減の動きへの危機感を背景としており、「これは科学の問題だ」と感情的に訴える場面もあった。

AIを含む先端技術の発展の多くは基礎研究から生まれており、政府資金による基礎研究投資が民間イノベーションの土台だと主張した。

AI時代においても物理・生物・数学・化学などの基礎科学の重要性は変わらず、むしろAI研究の深化にはこれらの基盤が不可欠だ。

日本も同様に大学・研究機関への公的R&D;投資の維持・強化が長期的な国際競争力の源泉であり、研究環境の整備が急務だ。

MITがAIエージェントの検索を最適化しLLM精度を向上させる研究を発表

研究成果の内容

AIエージェント検索最適化手法
LLM精度の大幅な向上を実現
検索クエリの自動精緻化
RAGシステムへの応用可能性
MIT NEWSが研究詳細を公開

実用への応用

企業検索システムの精度向上
知識ベース活用の効率化
エージェントAIの信頼性強化

MITの研究チームは2026年2月5日、AIエージェントが情報検索をより効果的に行うための新手法を発表した。LLMの回答精度を大幅に向上させる成果として注目される。

研究では、AIエージェント検索クエリを自動的に最適化・精緻化することで、必要な情報を一度の検索で取得できる確率を高める手法を開発した。

この手法によりハルシネーション(誤情報生成)が低減され、企業のRAGシステムや顧客対応AIの信頼性向上に直接応用できる。

エージェントAIが自律的に検索戦略を立案する能力は、複雑な業務調査や競合分析、法規制調査などのユースケースで大きな価値を持つ。

MITの研究成果は将来的にオープンソース化される見込みで、エージェントAIシステムの信頼性を底上げする基盤技術として期待されている。

MITがAIで治療薬の発見・設計を加速する研究を発表

研究の概要と手法

AI×定量モデリング創薬加速
操作型細胞設計に量子化手法を適用
疾病・エネルギー・気候変動に同一フレーム
AIが仮説生成の反復速度を向上
実験コストを大幅削減する可能性
MIT特集「3 Questions」形式の解説

医療・産業への展望

新薬候補の探索範囲が飛躍的拡大
バイオテック企業との連携加速
個別化医療実現への基盤技術として注目

MITは2026年2月4日、AIと定量解析を組み合わせることで治療薬の発見・設計プロセスを大幅に加速できるという研究成果を公開した。

研究チームは疾病治療、エネルギー問題、気候変動という複数の課題に対して、AIを活用した操作型細胞設計という統一的なアプローチを開発した。

AIは膨大な分子空間を探索し有望な候補物質を絞り込む役割を担い、人間の研究者は価値の高い実験に集中できる環境が生まれている。

従来は数年単位で行われていた薬剤候補の絞り込みが数週間〜数ヶ月に短縮される可能性があり、製薬企業のR&D;コスト削減に直結する。

MITの研究は基礎科学とAIの融合という点で産学連携のモデルケースとなりつつあり、日本のバイオテック企業にとっても注目すべき方向性だ。

MITがACMフェローとAI倫理の新リーダーシップを発表

人事・受賞の詳細

Antonio TorralbaらACMフェローに選出
2025年度ACM FellowsMIT卒業生3名
Brian Hedden氏がAI倫理副学部長に就任
SERC(社会・倫理責任)部門の強化
コンピュータビジョン分野の功績が評価
AI教育倫理的枠組み構築を推進

研究・教育への意義

負責任なAI研究の制度的強化
人材育成でのAI倫理統合
産学連携での倫理基準形成

MITは2026年2月4日、コンピューター科学の国際学会ACMが選出する2025年フェローにAntonio Torralba教授ら3名のMIT関係者が選ばれたと発表した。

Torralba教授はコンピュータビジョンと視覚的知覚のAI研究における長年の功績が認められた。ACMフェローは世界最高峰のコンピュータ科学者への称号だ。

またBrian Hedden教授がMITのSERC(コンピューティングの社会的・倫理的責任)部門の共同副学部長に就任し、AI倫理教育の強化が図られる。

SEERCの役割は学生・研究者がAI開発の倫理的側面を深く考える能力を育てることにあり、AI人材の質的向上に寄与する。

世界の大学でAI倫理教育の充実が求められる中、MITの体制強化は業界スタンダード形成に影響を与える。

SMARTがウェアラブル超音波AIで高齢者ケアを在宅で実現する研究グループを設立

研究の概要

ウェアラブル超音波イメージング
在宅での継続モニタリング実現
高齢者の慢性疾患管理

技術的インパクト

病院から在宅への医療移行
AIによるリアルタイム診断
ヘルスケアコスト削減の可能性

SMART(Singapore-MIT Alliance for Research and Technology)は、ウェアラブル超音波イメージングとAIを組み合わせ、高齢者を在宅でリアルタイムにモニタリングする新研究グループを設立しました。

従来の超音波検査は病院での専門機器と技師が必要でしたが、ウェアラブル化とAI解析の組み合わせにより、高血圧・心不全などの慢性疾患患者を日常生活中に継続監視できるようになります。

AIが超音波データをリアルタイム解析し、異常を検知した際には医療従事者に即座に通知する仕組みにより、緊急事態への早期対応が可能になります。

高齢化が急速に進む先進国・アジア諸国において、在宅医療のAI支援は医療費削減と患者のQOL向上を同時に実現する社会的インフラとして注目されています。

この研究は臨床的な価値だけでなく、ウェアラブルAI医療機器市場への新たな参入機会を生み出す可能性があります。

MIT学生がAIと生物工学を融合した研究でチャーチル奨学金を受賞

受賞の概要

Katie Spivakovskyが受賞
AI×生物工学の専門研究
ケンブリッジ大Wellcome Sanger

研究の意義

AI×ゲノム研究の最前線
国際的な学術交流
次世代バイオAI人材の育成

MITの上級生Katie Spivakovskyが2026-27年度のチャーチル奨学金を受賞し、英国ケンブリッジ大学のWellcome Sanger Instituteで生物科学のMPhilを取得予定です。

Spivakovskyは生物工学とAIの二重専攻という希少な専門性を持ち、AI×ゲノム研究の最前線で活躍するために選ばれました。

チャーチル奨学金はWinston Churchill Foundationが提供する米国最高の英国留学奨学金の一つで、科学・工学分野の最優秀人材を支援します。

この受賞は、AI+生物工学という融合分野が次世代の最重要研究領域として認識されていることを示し、バイオAIへの投資と人材育成の重要性を際立たせます。

MIT発のAI×バイオ研究者たちが国際的な舞台で活躍することは、米国のAI人材エコシステムの層の厚さと教育機関の競争力を示す指標でもあります。

MITがAI搭載の物理インタラクティブオブジェクト設計コースを開講

コースの概要

AI×物理オブジェクトデザイン
スクリーンを超えた触覚AI体験
大型言語モデル駆動のインタラクション

将来への示唆

エンボディドAIの設計哲学
デジタル・物理融合の先端研究
次世代インターフェースの模索

MITの「Interaction Intelligence」コースは、AIをスクリーンの中から物理世界に引き出す新しいカテゴリのインタラクティブオブジェクトを設計することに焦点を当てています。

学生たちは大型言語モデルで駆動される物理的なオブジェクトを設計・試作し、AIが実世界の物理空間でどう機能すべきかを探求しています。これはエンボディドAI設計の先端実践です。

スクリーンレスのAI体験設計は、スマートホームデバイス・ロボット医療機器など、AIが物理世界に深く組み込まれる未来を準備する上で重要なデザイン知識です。

MITのこうした教育的取り組みは、次世代のAI製品設計者を育成し、デジタルと物理の境界を再定義するイノベーションの種をまいています。

AIインターフェースの多様化は、スマートスピーカーから始まった会話UIの次の段階として、触覚・空間・動きを活用したマルチモーダル体験設計に進化しています。

MITの再帰フレームワークでLLMが1000万トークンをコンテキスト劣化なく処理

技術の革新点

1000万トークンの処理を実現
再帰的フレームワークによる解決
コンテキスト劣化を防ぐ設計
長文書処理が現実的に
メモリ効率も改善

実用的なインパクト

法律文書全体を一度に処理
長編小説の一括分析が可能
コードベース全体を把握できる
企業データの大規模分析
RAG不要のシナリオが増える

MITの研究者が新しい再帰的フレームワークを開発し、LLMが1000万トークンという超長文脈を「コンテキスト劣化」なく処理できることを実証しました。

従来のモデルは文脈が長くなるほど「迷子」になり、文書の後半部分の内容を正確に参照できなくなる問題がありました。このフレームワークはその問題を解決します。

1000万トークンというのは、書籍数冊分や大規模なコードベース全体に相当する量です。これによりRAGアーキテクチャなしに大量の文書を直接モデルに入力できる可能性があります。

長文脈処理は現在のLLM研究における最重要テーマの一つであり、GoogleOpenAIAnthropicなども競争的にコンテキスト窓の拡張に取り組んでいます。

MITがAIと知能研究への継続的コミットメントを宣言

取り組みの内容

AI研究の基礎から応用まで幅広く推進
知能の本質的理解を研究の柱に
産学連携プロジェクトを継続拡大
AI安全性・倫理研究にも重点
次世代AI研究者の育成に注力

MITはAI研究と知能の本質的理解への継続的コミットメントを発表しました。基礎研究から応用まで幅広くカバーするアプローチで、産業界との連携を深めながらAI安全性や倫理的AI開発にも取り組んでいます。

MITのアプローチは単なる能力向上ではなく知能そのものの理解を目指す点で、現在のスケーリング中心のアプローチとは異なる視点を提供しています。

MITが電力グリッド最適化にAIを活用する研究を発表

AIによる電力グリッド最適化

MITAIを活用した電力グリッド最適化の研究を発表
再生可能エネルギーの間欠性をAIで補正
需要予測と供給調整をリアルタイムで行う
電力コスト削減と停電リスク低減を同時に実現
各地域の気象データ・需要パターンを学習
エネルギー転換の中でAIが重要なインフラ役に

MITの研究チームは、電力グリッドの需給バランス管理にAIを活用することで、再生可能エネルギーの普及に伴う不安定性を解消する研究成果を発表しました。太陽光・風力など天候依存の電源が増える中、グリッドの安定運用にはリアルタイムの高精度な需給予測が不可欠です。

AIは気象予報データ・過去の需要パターン・産業活動情報を統合して数時間から数日先の電力需要を予測し、蓄電池や出力調整可能な電源の最適な運用をサポートします。これにより、調整コストの削減と停電リスクの低減が実現されます。

日本のような島国で電力システムの独立性が高い環境では、グリッドAIの重要性はより高くなります。電力市場の自由化とAI活用の組み合わせで、日本エネルギー転換を加速できる可能性があります。

MITが北極データ解析で冬季気象予測の精度向上に成功

北極データとAI気象予測

MIT北極の気候データをAIで解析する研究を発表
北極振動パターンが中緯度の冬季気象に与える影響を解明
機械学習で2-4週間先の気象を精度良く予測
エネルギー需要・農業・災害対策に応用可能
異常気象の頻度増加にAI予測が対応
気候変動の影響を定量的に把握する手法を確立

MITの研究チームは北極の気候データを機械学習で解析することで、中緯度地域の冬季気象を従来よりも精度高く予測できることを示しました。北極振動と呼ばれる大気パターンの変動が数週間後の北米・欧州・アジアの気象に大きな影響を与えることを活用した研究です。

2週間から4週間先という従来の予測が難しい期間での精度向上は、エネルギー需要の管理、農業の播種・収穫計画、災害対策の事前準備に実際的な価値を持ちます。気候変動によって北極の気象変動が増大する中、このような予測技術の重要性は高まっています。

AIを使った気象・気候研究は物理ベースのシミュレーションモデルを補完し、より少ない計算コストで高精度な予測を実現できる可能性を示しています。

MITがAIと格差・労働の未来を研究するStone Centerを開設

Stone Centerの研究ミッション

MITが格差問題と労働の未来を研究するセンターを設立
経済的格差へのAIインパクトを多角的に分析
政策提言・雇用影響・スキル変化を横断的に研究
研究者・政策立案者・労働団体が協力する体制
AI時代の格差縮小に向けた実証的な根拠を提供
MIT固有の学際的アプローチで社会変化に対処

MITは経済的格差とAI時代の労働の未来を研究する「Stone Center on Inequality and Shaping the Future of Work」を設立しました。AIの普及が経済格差を拡大するのか縮小するのか、そしてどのような政策が必要かを実証的に研究する使命を持ちます。

AIによる自動化が労働市場に与える影響は産業・職種・地域によって大きく異なり、均一な分析では政策立案に不十分です。Stone Centerはこれらの複雑な経済社会の変化を精緻に分析し、エビデンスに基づく政策提言を行うことを目指しています。

MITの学際的な研究環境において、経済学・社会学・コンピューター科学・公共政策が融合した研究体制を構築します。日本を含む先進国が直面するAIと雇用・格差の問題に対するエビデンスを提供する国際的な研究拠点として期待されています。

MITが臨床AIの記憶リスクを研究:患者プライバシーの新たな脅威

臨床AIの記憶化リスクとは

AIモデルが訓練データの患者情報を記憶
プロンプトへの応答で個人情報が漏洩する可能性
メンバーシップ推論攻撃で記憶を抽出可能
電子カルテデータでの学習が特に高リスク
医療AI規制のギャップを浮き彫りにする
ヒポクラテスの誓いとAIの矛盾が顕在化

対策と今後の方向性

差分プライバシーが有望な技術的対策
学習データの匿名化だけでは不十分と判明
AIが扱う医療データの規制強化が急務
連合学習でデータを分散させるアプローチ
患者の同意フレームワークの見直しが必要
FDA・EMAなど医療規制当局が対応を急ぐ

MITの研究チームは、臨床AIシステムが学習データに含まれる患者情報を「記憶」するリスクを体系的に調査した研究を発表した。メンバーシップ推論攻撃(Membership Inference Attack)を使用することで、AIモデルがどの患者データを学習したかを高い確率で特定できることが示された。

この問題が特に深刻なのは、電子カルテ・医療画像・臨床ノートといったセンシティブな医療データで学習した診断AIや予測モデルだ。攻撃者がモデルのAPIにアクセスできる場合、特定の患者の医療情報が学習データに含まれているかどうかを推定できる。

従来の対策として行われてきた学習データの匿名化・仮名化だけでは不十分であることも示された。モデルが一意な特徴(稀な病態・特殊な薬剤の組み合わせなど)を記憶してしまう場合、匿名化を施しても個人を特定できる可能性がある。

技術的な解決策として、差分プライバシー(Differential Privacy)による学習がより有望な対策として挙げられている。確率的ノイズを加えることで個人情報の記憶を防ぎながら、モデルの有用性を一定程度保つことができる。

この研究は医療AIの規制フレームワーク構築に重要な示唆を与える。HIPAA・EU GDPRなどの既存医療プライバシー規制がAI時代に十分対応できているかの見直しが求められており、患者の同意取得と記憶リスクの開示が新たな倫理的要件として浮上している。

投資家予測:2026年AIは労働市場に本格参入する

労働市場への影響の現実

MIT研究が11.7%の仕事が自動化リスクと推定
ホワイトカラー職種への影響が顕在化
2025年すでにAI関連レイオフが複数件発生
コーディング・分析職から影響が始まっている
AI採用と人員削減が同時進行する企業が増加
労働組合がAI使用規制を団体交渉に持ち込む

VCと投資家の展望

2026年はAI自動化投資急拡大する予測
生産性向上が新規雇用を上回る可能性
知識労働の定義が根本から変わる転換期
スキルの陳腐化スピードが加速
AI時代に価値ある人材像が変化している
セーフティネット議論が政策アジェンダに浮上

MITの研究が推定した11.7%の雇用自動化リスクは、すでに現実のものとなりつつあります。TechCrunchが調査したVC投資家たちは、2026年をAIが労働市場に本格参入する年と予測しています。特にホワイトカラーの定型的知識労働が最初の影響を受けます。

コーディング、データ分析、文書処理、カスタマーサポートといった分野では、AIが人間のタスクを代替するケースが増えています。企業がAIツールへの投資を増やしながら同時に人員を削減するという生産性向上とリストラの同時進行は、2025年後半からすでに始まっています。

労働組合はこの変化に対してAI使用の透明性確保と団体交渉での規制を求め始めました。ハリウッドのストライキがAI使用規制を勝ち取った事例が、他業界にも波及しています。労働政策と技術政策の交差点が2026年の政治的焦点になります。

投資家は悲観的ではありません。新しい仕事の創出や生産性向上によるコスト削減が新しい雇用機会を生む可能性も見ています。しかしスキルの移行には時間がかかり、その摩擦をどう緩和するかが社会的課題として浮上しています。

Google・MIT研究、エージェント数を増やしても性能は向上しないと示す

研究の主要知見

エージェント数の増加が必ずしも性能向上につながらない
エージェント多数投入戦略」への反証的研究成果
エージェント数・連携構造・モデル能力・タスク性質を分析
定量モデルエージェントチームの動態を記述
スケーリングの効果はタスク特性に強く依存
一律の多数エージェント戦略には限界がある

実務への示唆

タスクの性質を見極めてエージェント構成を最適化
単純にエージェントを増やすのはコスト増になるリスク
モデル能力と連携構造の組み合わせが性能を左右
エンタープライズAI設計の根本的見直しを促す
Arxivに論文を公開し検証可能な形で成果を公表
業界の「スケールアップ信仰」に科学的根拠で反論

GoogleMITの共同研究がArxivに公開され、エージェント型AIシステムにおいてエージェント数を増やすことが必ずしも性能向上につながらないことを定量的に示しました。業界通説の「エージェントは多いほど良い」に正面から反論する内容です。

研究チームはエージェント数・連携構造・モデル能力・タスク特性の4要素を分析し、定量モデルを構築しました。タスクの性質によってエージェントスケーリングの効果が大きく異なることが明らかになっています。

この研究はエンタープライズAIの設計者に重要な示唆を与えます。高コストなマルチエージェント構成を採用する前にタスク特性を評価し、適切なエージェント規模と連携方式を選択することが合理的です。

Google60大AI発表とMITが2025年のAI進化を総括

Googleが2025年を総括

2025年の主要AI発表60件を公式ブログで一挙公開
GeminiシリーズやProject Astroなど主要モデルの進化
AI Overviewsが検索体験を根本的に変革
Willow量子チップなど非AI分野の成果も含む
ハードウェアからサービスまで広範囲な成果を整理
年間を通じた研究開発の規模の大きさを数字で示す

MITが研究成果を振り返る

量子コンピューティングとAI研究が主要トピック
小児医療や科学的発見での応用事例を紹介
Chronicle・ポッドキャスト等の多様なメディアで注目
革新的技術から地に足のついた発明まで幅広く網羅
教育・医療分野でのAI活用が特に高い評価
2025年の研究が産業応用に直結した事例が増加

Googleは2025年の年間まとめとして、60件以上のAI関連発表をまとめたブログ記事を公開しました。GeminiシリーズのアップデートやNotebookLMAI Overviewsの展開など、検索アシスタント・研究ツールの全分野に及ぶ成果が列挙されています。

MITは2025年の研究成果を振り返る特集記事を公開し、量子コンピューティングやAIの科学的応用が主要なハイライトとして紹介されました。小児医療や環境問題へのAI適用など、社会的インパクトの大きな研究が特に注目されています。

2025年は大手テック企業と学術機関の双方でAI研究の成果が実用化段階に移行した年であることが、両記事から読み取れます。GoogleMITの総括は、基礎研究から商業応用まで幅広い進化が起きたことを示しています。

GemmaとHF v5が新展開を加速

Gemmaの新バリアント

FunctionGemmaエッジ公開
T5Gemma 2が長文脈対応
累計DL3億件超を達成

研究・ツールの進展

MITが学習不適を覆す実験
HF v5で設計刷新
Kaggleで5日集中講座
C2Scaleで癌研究応用

GoogleGemmaモデルの新バリアント「FunctionGemma」を公開しました。エッジデバイス上でのカスタム関数呼び出しに特化した軽量設計で、オフライン環境での活用が広がります。

「T5Gemma 2」はGemma 3基盤のエンコーダー・デコーダーモデルで、マルチモーダル処理と長文脈への対応を初めて実現しており、文書分類や翻訳タスクでの活用が期待されています。

MITのCSAIL研究チームは、これまで学習不適とされてきたニューラルネットワークも短期間のガイダンスで効果的に学習できることを実験的に実証し、従来の通説を覆しました。

Hugging FaceTransformers v5でトークナイザーの設計を大幅に刷新し、学習済み語彙との分離によってコードのモジュール性を高め、カスタマイズと保守の容易さを向上させました。

KaggleとGoogleが共催した5日間のAIエージェント集中講座には世界中から多数の参加者が集まり、実践的なAI教育への高い需要と世界的なAI学習熱の高まりを改めて示しました。

Gemmaファミリーの累計ダウンロード数は3億件を突破しており、一般的なNLPタスクを超えて癌研究(C2Scale)など高度に専門化された科学的応用も着実に増加しています。

エンタープライズAIエージェント本番化の課題

エージェント本番化の課題

AIプロジェクトの95%が本番価値創出に失敗
複雑タスクでエージェント63%失敗するという調査結果
ハルシネーション・統合障害・ガバナンス不足が主因
デモと本番の巨大なギャップが課題

注目される解決アプローチ

Patronus AIがジェネレーティブシミュレーターを発表
DataRobotがエージェントライフサイクル管理基盤を強化
JPMorganが6割の従業員AI活用を実現
連結ファーストアーキテクチャが普及の鍵

エンタープライズAI市場では、エージェント型AIのデモから本番稼働へのギャップが深刻な課題として浮かび上がっています。MITのProject NANDAの調査では、AIプロジェクトの約95%が実際のビジネス価値を生み出せずに終わっています。

Patronus AIは、AIエージェントのトレーニング方法を根本的に変える「ジェネレーティブシミュレーター」を発表しました。この技術は、動的に変化する課題を生成し続けるシミュレーション環境を構築し、エージェントが学習しながらリアルタイムで評価を受けられる仕組みです。

DataRobotはエージェントAIのライフサイクル全体を管理するプラットフォームを強化しました。プロトタイプから本番環境への移行における統合の脆弱性やガバナンスの複雑さを解消するためのツール群を提供しています。

JPMorganの事例では、「連結ファーストアーキテクチャ」と呼ばれるアプローチが従業員の自発的な採用を促し、わずか数ヶ月で25万人、現在は全従業員の60%以上がAIを活用するまでに拡大しています。

データサイエンス領域では、大規模言語モデル(LLM)の技術が表形式データや時系列モデリングにも応用され始めており、従来の機械学習とGenAIを統合する「GenAIデータサイエンス革命」が加速しているという見方も出てきています。

全体として、2026年に向けた企業AIの課題は「エージェントの構築」から「エージェントのオーケストレーション・ガバナンス・スケーリング」へと移行しており、本番稼働を支える基盤ツールへの注目が高まっています。

MITがLLM改善と視覚進化研究を発表

新位置符号化手法

MIT・IBM共同開発のPaTH Attentionが状態追跡能力を向上
RoPEに代わるデータ依存型の動的位置符号化を実現
推論・長文脈・言語モデリングのベンチマークで優位
GPU高速処理に対応したハードウェア効率アルゴリズム

視覚進化サンドボックス

MITがAIエージェント視覚進化を再現するサンドボックス開発
タスクの種類が眼の構造を決定することを発見
ロボットドローン向けのタスク特化センサー設計に応用可能

MITMIT-IBM Watson AI Labの共同研究チームは、トランスフォーマーアーキテクチャの根本的な限界を克服する新しい位置符号化手法「PaTH Attention」をNeurIPSで発表しました。

従来のRoPE(Rotary Position Encoding)はトークン間の相対距離のみに基づく静的な回転を割り当てますが、PaTH Attentionは各トークンの内容に依存した動的変換を累積させることで、単語間の意味の変化をパスとして追跡できます。これにより状態追跡や逐次的な推論が改善されます。

実験では、PaTH Attentionが診断タスクと実世界の言語モデリングタスクの両方で既存の注意機構を上回り、数万トークンに及ぶ長文脈でも安定した性能を示しました。また「忘却トランスフォーマー(FoX)」と組み合わせた「PaTH-FoX」システムでさらに性能が向上しています。

もう一つの研究では、MITの研究者らがAIエージェントを用いて視覚系の進化を再現する計算論的フレームワークを構築し、Science Advances誌に発表しました。カメラのセンサー・レンズ・絞り・プロセッサをパラメータ化したエージェント強化学習で世代を超えて眼を進化させます。

実験ではナビゲーションタスクでは複眼(昆虫や甲殻類のような眼)に、物体識別タスクではカメラ型の眼(虹彩と網膜を持つ眼)に進化することが分かりました。タスクの種類が眼の構造の違いを生み出す主要な要因であることが示されています。

このフレームワークはロボットドローンウェアラブルデバイス向けの新しいセンサー設計に応用できる可能性があり、エネルギー効率や製造上の制約のもとでタスク固有の最適な視覚システムを探索するための強力なツールとなり得ます。

AIがデザイン・ゲーム・予測に広がる多様な動向

言葉だけで家具を作るMITのAIロボット

MITが自然言語で3D設計から組み立てまで自動化するシステムを発表
VLMが形状と機能を推論し部品配置を決定
ユーザーフィードバックで設計を反復修正できる人間参加型ループ
解体・再組み立て可能な部品でごみを削減
参加者の90%以上が従来手法より本システムの成果物を好んだ
航空宇宙や建築などの高度プロトタイピングへの応用も視野

ゲーム開発と予測技術をめぐる最新動向

Larian CEOがAIで開発チームを削減する計画はないと明言
ゲーム開発ではAIツール活用と人員維持の両立が課題
北海道大学・TDKが人の行動パターンを予測するチップを開発
じゃんけんで100%勝利するデモで予測精度を実証
スポーツからSNS投稿数まで対象が広がるギャンブル化社会が加速
メディア業界ではParamountのWarner Bros.買収交渉が混迷

MITGoogle DeepMind・Autodesk Researchの共同チームは、テキストだけで物体を設計・組み立てできるAIロボットシステムを発表しました。「椅子を作って」と入力するだけで自動設計が始まります。

生成AIが3Dメッシュを作成し、VLMが構造と機能を推論して部品配置を決定します。ユーザーフィードバックによる反復修正も可能な人間参加型のループを備えています。

部品は事前製造品を使って再組み立て可能な設計となっており、廃棄物削減にも貢献します。評価実験では参加者の90%以上が従来手法よりも好意的に評価しました。

ゲーム分野では『バルダーズ・ゲート3』を手がけたLarianのCEOが声明を発表しました。AIで開発チームを削減する計画はなく、補助ツールとして活用すると強調しています。

北海道大学とTDKは人の行動パターンを学習・予測するニューロモーフィックチップを開発しました。じゃんけんで人間に100%勝利するデモでその予測能力を実証しています。

米国ではスポーツ結果からSNS投稿数まであらゆる事象に賭けられるギャンブル化が進行中です。ParamountのWarner Bros.買収交渉も混迷しており、メディア再編の行方が注目されます。

MITが計算生物学で2つの成果を発表

深層学習でショウジョウバエの細胞発生を予測

MITチームが新たな深層学習モデルを開発
ショウジョウバエの胚発生を細胞単位・分単位で予測
「デュアルグラフ」構造で点群と泡モデルを統合
約5,000個の細胞の挙動を90%の精度で再現
将来的にゼブラフィッシュやマウスへの応用を想定
喘息など早期疾患の細胞パターン検出にも期待

ゲノム言語モデルで微生物の化学多様性を解析

MIT教員Yunha Hwangが計算×生物学の研究を推進
地球上の生物種の99.999%を占める微生物に着目
既知遺伝子の1%未満しか機能が実験で検証済み
ゲノム言語モデルでDNA配列からタンパク質機能を推定
タンパク質の文脈(前後のゲノム領域)を考慮した解析
炭素固定・新素材・感染症対策への応用を展望

MITの研究者たちが、計算手法と深層学習を生物学に応用した2つの成果を2025年12月に相次いで発表しました。いずれもこれまで解析が困難だった複雑な生命現象に、AIを用いて迫る試みです。

最初の研究では、Ming Guo准教授らのチームがショウジョウバエの初期胚発生を細胞レベルで予測する深層学習モデルを開発し、学術誌『Nature Methods』に発表しました。

このモデルは細胞を点群と泡の両方として同時に表現する「デュアルグラフ」構造を採用しています。細胞の位置・接触状態・折り畳み・分裂などの幾何学的特性を高精度に捉えることができます。

ミシガン大学が撮影した高解像度タイムラプス動画を用いて学習を行い、約5,000個の細胞それぞれの1時間にわたる挙動を90%の精度で予測することに成功しました。

研究チームはこの手法を他の生物種に拡張し、喘息や癌といった早期疾患に特有の細胞動態パターンの発見を目指しています。データの質が今後の応用拡大における主なボトルネックだと研究者らは述べています。

もう一つの研究は、MIT生物学部とEECSの兼任教員として着任したYunha Hwang助教によるものです。極限環境に生息する微生物のゲノムを計算的に解析する研究に取り組んでいます。

Hwang助教はDNAを「言語」として扱うゲノム言語モデルを開発し、実験室で培養できない微生物の機能をインシリコで推定する手法を研究しています。タンパク質の機能を単独ではなくゲノム上の前後文脈とともに解釈する点が特徴です。

微生物は地球上の炭素固定や栄養循環を担う重要な存在であり、その代謝能力を理解することは気候変動対策や新素材・医薬品の開発に直結します。計算生物学はこの膨大な「微生物の暗黒物質」を解き明かす鍵と位置づけられています。

AIが切り拓くディープテックの最前線:自動運転と核廃棄物処理

超効率的な自動運転ソフト開発に挑むHyprLabs

元Zoox共同創業者が率いる17人のスタートアップ
改造Tesla 3台でサンフランシスコ市内を実走テスト
独自の「ランタイム学習」技術で少ないデータから自律走行を習得
わずか4000時間の走行データで動作する軽量トランスフォーマーモデル
Hyprdrive:ロボティクス他社へのライセンス提供も検討
調達額わずか550万ドルで広範な自律ロボット構想を推進

MITが核廃棄物を「エネルギー源」に変える研究

MIT核科学・工学科の博士課程生が高レベル放射性廃棄物に挑む
使用済み核燃料の崩壊熱をバイナリサイクルで地熱発電に転換
AIサロゲートモデルで数日かかる放射性核種輸送シミュレーションを高速化
セメント・粘土バリアの相互作用をモデル化した論文をPNASに発表
廃棄物1缶で約1000平方メートルの太陽光パネル相当のエネルギーを生成
核廃棄物を「負債」から「資産」へ転換する概念実証段階の研究

HyprLabsは、元Zoox共同創業者ティム・ケントリー=クレイ氏が率いるサンフランシスコとパリを拠点とする17人のスタートアップです。同社は改造したTesla Model 3を使ってサンフランシスコ市内で約1年半にわたり自動運転ソフトのテストを重ねてきました。

同社の核心技術は「ランタイム学習」と呼ばれる独自アプローチです。トランスフォーマーモデルをベースに、人間の監視のもとで走行しながらリアルタイムに学習し、新規なデータのみをクラウドの「マザーシップ」に送信して継続的に更新します。

HyprLabsの強みはデータ効率にあります。Waymoが1億マイル以上の完全自動走行データを持つのに対し、同社はわずか4000時間(約10万キロ相当)の走行データだけでシステムを動作させています。これは機械学習の効率化が進んだ時代ならではのアプローチです。

同社はHyprdrive製品を他のロボティクス企業へのライセンス提供で収益化を目指しており、将来的にはR2-D2とソニックの掛け合わせと表現する独自のロボットの製造・運用も計画しています。ただし現段階では生産・安全基準への適合は宣言していません。

MITの核科学・工学科に在籍するダウレン・サルセンバエフ氏は、高レベル放射性廃棄物(HLW)の処理という核エネルギー最大の課題に取り組んでいます。カザフスタン出身で幼少期から大気汚染に悩まされてきた同氏は、脱炭素化への強い動機を持っています。

サルセンバエフ氏の主要研究は、使用済み核燃料の崩壊熱をバイナリサイクルシステムで地熱エネルギーとして取り出すコンセプトの開発です。使用済み燃料キャニスターは保守的な試算でも約150度に達しており、この熱エネルギーを二次流体で回収してタービンを駆動します。

同氏はさらに、放射性核種の地層中での輸送を予測するシミュレーションの高速化にもAIを活用しています。従来は高性能クラスターで数日から数週間かかる計算を、AIサロゲートモデルで大幅に短縮することに成功しています。

2つの研究は一見異なりますが、どちらもAI・機械学習技術を活用して社会インフラの根本的な課題を解決しようとする点で共通しています。自動運転の民主化と核廃棄物の無害化という二つのフロンティアで、少人数チームや個人研究者がディープテックの可能性を示しています。

MITが小型LM協調推論フレームワーク「DisCIPL」発表

仕組みと特徴

大型LLMがプランナー、複数の小型LMが並列で実行する協調型フレームワーク
確率的プログラミング言語「LLaMPPL」でルールをコード化し制約を正確に伝達
GPT-4oがプランナー、MetaLlama-3.2-1Bモデル群がフォロワーとして動作
推論をテキストではなくPythonコードで表現し処理を大幅に圧縮
理論上は規模を問わず数十台のLMを並列接続可能なスケーラブル設計
フォロワーモデルは主力推論モデルと比べ1,000〜10,000倍安価なトークン単価

性能とコスト優位性

o1比で推論長を**40.1%短縮**、コストを**80.2%削減**する高効率を実証
文字数・単語配置などの厳格な制約付きライティングでo1に匹敵する精度を達成
旅行プラン・食材リスト・助成金申請など実務タスクでもGPT-4oを上回る成績
小型LM単独ベースラインは全タスクで最下位となり協調設計の有効性を裏付け
Conference on Language ModelingおよびIVADOワークショップで発表済み
今後は完全再帰型・数学推論・ファジー制約への拡張を計画

MITのCSAIL研究チームは、大型言語モデルと小型言語モデルを組み合わせた新しい推論フレームワーク「DisCIPL」を発表しました。同フレームワークは、大型モデルが計画を立案し、その指示を小型モデル群に分配して並列処理させるという分業構造を採用しています。

DisCIPLの核心にあるのは、MITの確率的コンピューティングプロジェクトが2023年に開発したプログラミング言語「LLaMPPL」です。このツールを使うことで、大型モデルは制約条件をコードとして正確に小型モデルへ伝えることができます。

実験では、GPT-4oをプランナーとして採用し、MetaLlama-3.2-1Bモデルを複数のフォロワーとして組み合わせました。このチームがGPT-4o単体やo1といった最先端モデルと比較評価されました。

コスト面での優位性は顕著です。o1と比べて推論の長さを40.1%、コストを80.2%削減できることが確認されました。フォロワーとして使う小型モデルのトークン単価が主力推論モデルの1,000〜10,000分の1である点が効率化の主要因です。

精度においても、指定した位置に特定の単語を含む文章生成など厳格な制約付きタスクでo1に匹敵する結果を示しました。旅行日程の作成や字数制限付き文書の作成といった実務的なタスクでもGPT-4oを上回る成績を収めています。

研究チームは今後、同一モデルをリーダーとフォロワーの両方に使う完全再帰型アーキテクチャへの発展を目指しています。また、数学推論タスクや、コードで明示的に表現しにくいファジーな好みへの対応も検討しています。

MIT、海軍将校向けAI応用修士プログラムを新設

プログラムの概要と目的

MITの機械工学科と電気工学・計算機科学科が共同開設する「2N6」プログラム
海軍将校を対象とした応用AI修士号(2年制)とAI証明書の取得が可能
意思決定・自律システム・サイバー防衛など軍事応用AIを網羅するカリキュラム
米海軍のAI応用サブスペシャルティコードを満たす内容に設計
海軍以外のMIT在学将校にも開放される予定
まず米海軍将校のみで2年間のパイロット運用を開始

背景と将来展望

インド太平洋軍司令官パパロ提督のMIT訪問が創設の直接的契機
MITと米海軍の125年以上にわたる共同研究の歴史が基盤
海洋ロボット・流体力学・海中センシングなど海軍関連技術の最前線研究と連携
国家安全保障に特化した先端AIエデュケーションの新たな模範を目指す
将来的には他軍種や広範な国家安全保障人材へ拡大を計画
MITシュワルツマン・カレッジ・オブ・コンピューティングが教育基盤を提供

MITは機械工学科(Course 2)と電気工学・計算機科学科(Course 6)が共同で、海軍将校向けの応用AI修士プログラム「2N6」を新設しました。

このプログラムは2年間の機械工学修士号と、MITシュワルツマン・カレッジ・オブ・コンピューティングが授与するAI証明書をセットで取得できる構成です。

カリキュラムはAIの基礎概念に加え、意思決定・製造設計・海洋自律システムなど海軍実務への応用に重点を置いており、米海軍のAI応用サブスペシャルティコードの要件を満たすよう設計されています。

プログラム創設の直接的な契機は、インド太平洋軍司令官サミュエル・パパロ提督がMITを訪問した際に、既存の2N海軍工学プログラムと先端AI研究を組み合わせた新たな教育形態を構想したことにあります。

MITと米海軍は125年以上の共同研究の歴史を持ち、流体力学・音響学・海洋ロボット・海中センシングなど多岐にわたる研究が現在も進行中です。2N6はこの長期的な関係の延長線上に位置づけられています。

最初のコホートは米海軍将校のみで構成され、少なくとも2年間のパイロットプログラムとして運用されます。その後、他軍種や国家安全保障に関わる幅広い人材へ門戸を広げる計画です。

MITのダン・フッテンローチャー工学部長は「このプログラムが国家の喫緊の課題に対応できる技術的専門性を海軍将校に提供する」と強調しており、国家安全保障に特化した先端AI教育の新たな模範として位置づけています。

MIT、空間データの信頼区間推定を刷新する新手法を開発

既存手法の限界と問題の発見

機械学習モデルによる空間統計推定の信頼区間が根本的に誤る問題を特定
既存手法が持つ「データは独立同分布」という前提が空間データでは成立しない現実
モデルが95%の確信度を示しながら実際の値を全く捉えていないケースを実証
ソースデータとターゲットデータの空間的乖離がバイアスを生む構造的欠陥の解明
EPA大気センサーの設置場所と農村部の実態乖離など具体的な偏りの例示
NeurIPS 2024で発表された研究成果

空間的平滑性を活用した新手法の優位性

空間的平滑性の仮定を採用し、従来手法の欠陥を根本から回避する設計
シミュレーションと実データの双方で唯一一貫して正確な信頼区間を生成
ランダム誤差によるデータ歪みが存在する条件下でも安定した信頼性を維持
環境科学・疫学・経済学など広域空間分析を行う分野への応用が期待される

MITの研究チームは、空間データを対象とした統計的関連性推定において、従来の機械学習手法が生成する信頼区間が根本的に誤っている問題を発見し、それを解決する新しい手法を開発しました。

従来手法は、データが独立同分布であること、モデルが完全に正しいこと、学習データと推定対象データが類似していることを前提としています。しかし空間データではこれらの前提が成立しないため、信頼区間が完全に外れてしまうことがあります。

たとえば、EPA(米国環境保護庁)の大気センサーは都市部に集中して設置されていますが、そのデータを使って農村部の健康アウトカムを推定しようとすると、データの性質が根本的に異なるためバイアスが生じます。

新手法は「空間的平滑性」という仮定を採用しています。たとえば微粒子大気汚染は一つのブロックから次のブロックへ急激に変化せず、汚染源から遠ざかるにつれ緩やかに減少するという性質です。この仮定は空間問題の実態により即した合理的なものです。

主任研究者のタマラ・ブロダリック准教授(MIT EECS)は、「天気や森林管理など、空間的な現象の理解が求められる問題は非常に多い。この種の問題群に対して、より適切な手法が存在し、より良いパフォーマンスと信頼性の高い結果をもたらせることを示した」と述べています。

シミュレーションと実データを用いた比較実験において、この新手法は既存の複数の手法の中で唯一、空間分析において一貫して信頼できる信頼区間を生成することが確認されました。観測データにランダムな誤差が混入している場合でも安定した性能を発揮します。

今後の研究として、チームは本手法をさまざまな変数タイプに適用し、他の応用分野への展開も探る予定です。本研究は、MIT社会的・倫理的コンピューティング責任(SERC)シード助成金、海軍研究局、Generali、Microsoft、全米科学財団(NSF)の支援を受けています。

MIT、省エネ半導体の新材料技術を開発

新技術の仕組み

既存チップ上にトランジスタを積層
非晶質酸化インジウムを採用
150度の低温で成膜可能

性能と応用可能性

約20nmの超小型メモリ実現
10ナノ秒の高速スイッチング
AI・深層学習の電力に貢献

MIT研究チームが、既存の半導体チップの裏面にトランジスタとメモリを一体的に積層する新しい製造技術を開発しました。従来は分離していた演算と記憶を近接配置することで、データ移動によるエネルギー損失を大幅に削減できます。

鍵となるのは非晶質酸化インジウムという新材料です。約150度という低温で成膜できるため、既存回路を破壊せずに裏面への積層が可能になりました。材料層はわずか約2ナノメートルの薄さで、欠陥を最小限に抑える最適化も実現しています。

この技術で作られた約20ナノメートルのメモリトランジスタは、10ナノ秒のスイッチング速度を達成しました。AI・深層学習の電力消費問題の解決に向けた重要な一歩として期待されています。

XPRIZE量子アプリ、最終7チーム選出。実用化へ加速

Googleらが支援する世界大会

Google支援のXPRIZE最終候補
賞金総額500万ドルの国際大会
SDGsなど現実課題の解決が目的

材料科学や創薬で実証へ

材料科学や創薬の難問に挑む
米欧などから精鋭7チームを選抜
2027年の優勝決定に向け実証開始

Google Quantum AIなどは2025年12月10日、量子コンピューティングの実用化を競う「XPRIZE Quantum Applications」のファイナリスト7チームを発表しました。本大会は総額500万ドルの賞金を懸け、古典コンピュータでは困難な現実課題の解決を目指す3年間のグローバルコンペティションです。

選出されたチームは、材料科学やヘルスケアなどの分野で、量子優位性を証明するアルゴリズムの開発に取り組みます。Googleは、自社の量子チップ「Willow」での技術的進展に加え、本大会を通じて具体的なユースケースの発掘と、産業界での実用化プロセスを加速させる狙いがあります。

ファイナリストには、アメリカ、イギリス、カナダ、スイス、ハンガリーの有力研究機関や企業が含まれます。例えば、カリフォルニア工科大学のチームは半導体材料のシミュレーション高速化を、イギリスのPhasecraftは次世代電池や炭素回収技術のための新素材発見を目指しています。

また、マサチューセッツ工科大学(MIT)のチームはタンパク質相互作用の分析による疾患リスクの特定を、カナダのXanaduは高効率な有機太陽電池の開発を支援するアルゴリズムを提案しました。いずれもSDGsに関連するような、社会的インパクトの大きい課題解決を掲げています。

ファイナリストは今後、既存の古典的手法とのベンチマーク比較や、実装に必要なリソース見積もりを行うフェーズIIに進みます。最終的な優勝者は2027年3月に決定され、最大300万ドルの賞金が授与される予定です。なお、落選チームも2026年のワイルドカード枠で再挑戦が可能です。

Microsoft、AI指示を最適化する動的UI「Promptions」公開

言語化の負担を解消する新技術

プロンプト作成の試行錯誤を大幅に削減
入力内容に応じ調整用UIを自動生成

動的UIによる直感的な制御

言語化不要でニュアンスを伝達可能
静的設定より高い柔軟性と発見性

開発者向けにOSSで提供

MITライセンスで無償公開
既存アプリへの組み込みが容易

Microsoft Researchは2025年12月10日、生成AIへの指示(プロンプト)作成を支援する新たなUIフレームワーク「Promptions」を発表しました。ユーザーの入力内容に合わせて動的に操作パネルを生成し、対話の精度と生産性を劇的に向上させる技術です。

従来のAI利用では、意図通りの回答を得るために何度も指示を書き直す「試行錯誤」が大きな課題でした。特に専門的なタスクにおいては、詳細度や役割設定、出力形式などを正確に言語化することに多くの時間を費やし、ユーザーが本来の業務や学習に集中できない状況が生じていました。

Promptionsはこの問題を解決するため、ユーザーの入力文脈を解析し、最適な「調整オプション」を即座に可視化します。例えば数式の解説を求めた際、対象読者のレベルや説明の深さをスライダーやボタンで直感的に選択できるため、長く複雑なテキスト指示を入力する負担から解放されます。

社内の実証実験では、あらかじめ固定された設定項目を使う場合と比較して、動的に生成された選択肢の方がユーザーの心理的負担が少ないことが判明しました。さらに、提示された選択肢が思考の補助線となり、ユーザー自身が気づいていなかった「本当に知りたかった視点」を発見する効果も確認されています。

技術的には、ユーザーと大規模言語モデル(LLM)の間に介在する軽量なミドルウェアとして機能します。開発者は既存のチャットインターフェースにコンポーネントを追加するだけで、文脈に応じた高度な制御機能を容易に実装することが可能です。

本フレームワークはMITライセンスのオープンソースソフトウェアとして、GitHubおよびMicrosoft Foundry Labsですでに公開されています。カスタマーサポートや教育、医療など、正確なコンテキスト制御とユーザー体験の向上が求められる分野での広範な活用が期待されます。

AI生産性格差は6倍:勝機はツール導入でなく「行動変容」

同じツールでも成果は別物

上位層は中央値の6倍活用
コーディング17倍の格差
多機能利用で5倍の時短

習慣化と探索が分ける明暗

毎日使う層は全機能を駆使
月1回層は高度機能を使わず
格差の本質は技術でなく行動

組織導入の95%は失敗

企業の95%が投資回収できず
公式より個人利用が成果出す

OpenAIMITが2025年に発表した衝撃的なレポートにより、AI導入企業内で深刻な「生産性格差」が起きていることが判明しました。同じツールへのアクセス権を持ちながら、使いこなす層とそうでない層の間には6倍もの開きが存在します。本質はツールの有無ではなく、個人の行動変容と組織の戦略にあることが浮き彫りになりました。

格差の実態は劇的です。上位5%の「パワーユーザー」は、一般的な従業員と比較してChatGPTへのメッセージ送信数が6倍に達しています。特にコーディング業務ではその差は17倍、データ分析でも16倍に拡大しており、AIを業務の核に据える層と、単なる補助ツールと見なす層との間で二極化が進んでいます。

この分断を生む最大の要因は「習慣化」です。毎日AIを利用するユーザーの99%が検索推論などの高度な機能を活用している一方、月間ユーザーの約2割はデータ分析機能を一度も触っていません。毎日使うことで新たな用途を発見し、それがさらなる生産性向上につながるという複利効果が働いています。

複数の機能を使いこなすことのインパクトも甚大です。データ分析、執筆、画像生成など7種類以上のタスクでAIを活用する従業員は、4種類以下のユーザーに比べて5倍の時間を節約しています。実験的に使い倒す姿勢が、結果として個人の市場価値を大きく引き上げているのです。

一方で、企業レベルの投資対効果は厳しい現実を突きつけています。MITの調査によると、生成AIへの巨額投資にもかかわらず、変革的なリターンを得ている組織はわずか5%です。多くの企業がパイロット段階で停滞しており、ツールを配布するだけで業務プロセスを変えられていないことが主因です。

皮肉なことに、会社が公式に導入したシステムよりも、従業員が個人的に契約して業務に組み込む「シャドーAI」の方が高いROIを叩き出しています。IT部門の承認を待たず、自らの判断で柔軟なツールを選び、ワークフローを改善する自律的な従業員だけが先行者利益を得ている状況です。

結論として、AI活用の成否を分けるのはテクノロジーそのものではありません。組織がいかにして「毎日使い、深く探索する」という行動様式を定着させられるかにかかっています。単なるツール導入で満足せず、業務フロー自体を再設計する覚悟がリーダーに問われています。

Zhipu AI、視覚入力でツール直結のVLM公開 商用可

視覚情報をツールへ直結

画像を直接ツールの引数に指定
テキスト変換の情報ロスを排除

用途に応じた2モデル展開

106B版は複雑な推論に特化
Flash版は利用無料で高速

実務を変える高い応用力

画面からコードを自動生成
MITライセンスで商用利用可

中国のAIスタートアップZhipu AIは2025年12月8日、視覚言語モデル「GLM-4.6V」シリーズを公開しました。画像をテキスト変換せず直接ツールで処理するネイティブ機能を搭載し、MITライセンスにより商用利用も完全に自由です。

最大の特徴は、視覚情報を直接ツールの引数として渡せる点です。従来必要だった「画像からテキストへの変換」という中間プロセスを排除することで情報の損失を防ぎ、画像の切り抜きや検索といった高度な自動化を効率的に実行できます。

ラインナップは、複雑な推論に強い1060億パラメータの「106B」と、低遅延な90億パラメータの「Flash」の2種です。特にFlash版は利用料が無料であり、エッジデバイスやリアルタイム処理が必要なアプリ開発に最適です。

開発現場での実用性も高く、UIのスクリーンショットからピクセル単位で正確なHTMLやCSSを生成できます。12万8000トークンの長大なコンテキストに対応し、長時間の動画解析や大量のドキュメント処理も一度の推論で完結します。

本モデルはOpenAIGPT-4Vなどと競合する性能を持ちながら、オープンソースとして公開されました。自社インフラでの運用やコンプライアンス順守が求められる企業にとって、柔軟かつ低コストAI導入の有力な選択肢となるでしょう。

MIT関係者9名がAI2050フェロー選出、物理とAI融合で革新

シュミット氏主導のAI支援

Google CEO設立のSchmidt Sciences
2050年のAI成功シナリオ実現が目標
有益なAI技術のための難問解決を支援

物理とAIの融合領域を開拓

MIT准教授らは物理・幾何学・MLを融合
3D物理理解と新素材設計への応用
科学計算を加速するニューラル演算子の開発

米マサチューセッツ工科大学(MIT)は2025年12月8日、同大の関係者9名が「AI2050フェロー」に選出されたと発表しました。このフェローシップは、元Google CEOのエリック・シュミット氏らが設立した非営利団体「Schmidt Sciences」によるもので、AI分野の最重要課題に取り組む研究者を支援するプログラムです。

AI2050イニシアティブの核心は、「2050年にAIが社会に大きな利益をもたらしているとしたら、どのような問題を解決したのか」という問いにあります。選出されたフェローたちは、AIと高度なコンピューティング、生物科学、宇宙物理学など、多岐にわたる分野でインパクトのある研究を推進し、持続可能な未来の実現を目指します。

今回選出されたMIT現役研究者のひとり、Tess Smidt准教授は物理・幾何学・機械学習の交差点で研究を行っています。物理的および幾何学的制約下でのシステム理解を助けるアルゴリズムを設計し、新素材や新分子の発見に応用することが狙いです。特に3D物理システムにおける対称性に着目したアプローチが高く評価されています。

また、CSAIL(コンピュータ科学・人工知能研究所)のポスドクであるZongyi Li氏は、科学計算を加速させるための「ニューラル演算子法」の開発に注力しています。従来の数値計算手法をAIで代替・補完することで、シミュレーションの劇的な高速化を目指すこの研究は、気象予測や流体力学など幅広い分野への波及効果が期待されます。

本プログラムには、現役研究者に加えて7名のMIT卒業生も選出されました。これには初期キャリアの研究者だけでなく、すでに実績のあるシニアフェローも含まれます。MITが輩出する人材が、アカデミアや産業界を超えて、将来のAI社会基盤を形成する上で重要な役割を果たしていることを如実に示しています。

倉庫の重労働をAIロボで解放、MIT発「Pickle」の挑戦

生成AI搭載の自律ロボ

MIT発、生成AI機械学習を実装
最大50ポンドの荷物を自律的に荷下ろし
導入初日から稼働、学習し性能が向上

現場課題からピボット

倉庫の高離職率に着目し事業転換
既存アーム活用で開発コストを抑制
UPSやリョービなど大手企業が導入

2025年12月、MIT発のスタートアップ「Pickle Robot Company」が物流業界の注目を集めています。同社は生成AIと機械学習を駆使した自律型ロボットにより、物流倉庫における過酷な荷下ろし作業を自動化しました。UPSやRyobi Toolsなどの大手企業で導入が進み、深刻な人手不足と高い離職率という業界の構造的課題の解決に貢献しています。

同社の技術的な強みは、高度なソフトウェアと既存ハードウェアの賢明な融合にあります。独KUKA社製の産業用アームに独自のセンサーやAIを搭載し、最大50ポンド(約23kg)の荷物を処理します。生成AIモデルのファインチューニングにより、多様な環境に即応しつつ、稼働しながら性能を高める仕組みを構築しました。

創業者のAJ Meyer氏らは当初、仕分けロボットを開発していましたが、資金難に直面し方針転換を余儀なくされました。現場観察で「90日以内に全員が辞める」という過酷な荷下ろし現場の実態を知り、事業をピボットします。YouTubeに投稿した概念実証動画が大きな反響を呼び、投資家と顧客を呼び戻して再起を果たしました。

今後は荷下ろしに加え、積み込み作業や他社製ロボットとの連携プラットフォーム開発も視野に入れています。鉱山から玄関先まで、サプライチェーン全体の自動化を指揮する「ネットワークの構築」を目指し、同社は事業拡大を加速させています。

音声指示で物体を数分生成、MITが「現実化AI」を開発

生成AIとロボットの融合

LLMと3D生成AIで設計を自動化
ロボットアームが数分で実体化
3Dプリントより高速なモジュール組立

製造の民主化と持続可能性

専門知識不要で誰でも製造可能
部品再利用により廃棄物を削減
ジェスチャー操作や大規模化も視野

米マサチューセッツ工科大学(MIT)の研究チームは2025年12月5日、音声指示だけで物理的な物体を生成する「Speech-to-Reality」システムを発表しました。生成AIとロボティクスを統合し、ユーザーが欲しいものを口にするだけで、ロボットアームが数分以内に家具などを自動で組み立てます。

このシステムは、大規模言語モデル(LLM)が音声を解析し、3D生成AIが設計図を作成することから始まります。生成されたデジタルデータはボクセル化アルゴリズムによって組み立て可能な部品構成に変換され、ロボットアームが最適な手順で物理的な構築を行います。

最大の特徴は、専門的な3Dモデリングやプログラミングのスキルが一切不要である点です。従来の3Dプリンティングが数時間から数日を要したのに対し、本システムはわずか数分で完了するため、製造プロセスの劇的な効率化と民主化を実現します。

また、組み立てにはモジュール式のコンポーネントを使用しており、持続可能性にも配慮されています。不要になった家具は分解して別の物体へと作り変えることができるため、廃棄物を削減し、資源を循環させるエコシステムとしての側面も持ち合わせます。

研究チームは今後、より堅牢な接続方法の採用や、ジェスチャー操作の統合を計画しています。将来的には、SF映画のように誰もがオンデマンドで必要なものを即座に手に入れられる世界の実現を目指し、モバイルロボットへの応用も視野に入れています。

AWS「AIエージェント」へ全振りも企業のROI未達が課題

技術の奇跡から実利へ

新型LLM「Nova」とAIエージェントを多数発表
CEOはエージェント実益を生む転換点と強調
第3世代チップなど自社インフラの強みを活用

企業現場との温度差

95%の企業がAI投資ROIを実感せずとの調査
顧客の成熟度がAWS想定レベルに未達
モデル市場ではOpenAIらにシェア劣後

インフラ王者の持久戦

オンプレミス版AIファクトリー投資家が高評価
強固な財務基盤で長期的な技術改善を継続

AWSは年次総会「re:Invent 2025」で、AIエージェントや新型モデル「Nova」を一挙に発表し、AI実用化へのシフトを鮮明にしました。CEOのマット・ガーマン氏は、AIが「技術的な驚異」からビジネス価値を生む段階に入ったと強調しますが、顧客企業の受け止めには依然として温度差があります。

最大の課題は、顧客企業の準備不足です。MITの調査では95%の企業がAI投資の対価を得られていないとしており、多くはまだ試験運用段階に留まります。アナリストは、AWSの技術発表が先進的すぎるあまり、現在の顧客の成熟度やニーズと乖離している可能性を指摘しています。

AIモデルの市場シェアでは、OpenAIGoogleAnthropicが先行しており、AWSは後を追う立場です。しかし、投資家AWSの真価をモデルそのものではなく、それを支えるクラウドインフラや、自社データセンターでAIを稼働させる「AIファクトリー」に見出しています。

AWSの強みは、インフラ市場での圧倒的な支配力と、四半期で114億ドルを稼ぎ出す強固な収益性です。たとえAIブームが一時的に停滞しても、他社より耐性が強く、長期的な視点で技術を改良し続ける「実験の余地」が残されています。

NVIDIA、博士学生10名へ最大6万ドルの研究助成を発表

次世代リーダーの発掘と支援

博士課程学生10名へ最大6万ドルを授与
事前の夏季インターンシップ参加権
25年続く名門フェローシップ

注目の研究トレンド

物理AIロボティクスの実用化
持続可能な学習基盤と効率化
スタンフォード大などトップ校が選出

NVIDIAは2025年12月4日、2026-2027年度の大学院フェローシップ受賞者を発表しました。計算科学の革新を担う博士課程学生10名に対し、最大6万ドルの研究資金提供とインターンシップの機会を付与します。

本制度は25年の歴史を持ち、NVIDIAの技術に関連する卓越した研究を支援するものです。世界中から選抜された学生たちは、自律システムやディープラーニングなど、コンピューティングの最前線で研究を加速させます。

今回の受賞研究では、物理AIやロボティクスなど実世界への応用が目立ちます。インターネット上のデータから汎用的な知能を構築する試みや、人間とAIエージェントが円滑に協調するためのインターフェース研究が含まれます。

また、AIの信頼性と効率性も重要なテーマです。プロンプトインジェクション攻撃に対するセキュリティ防御や、エネルギー効率の高い持続可能なAIトレーニング基盤の構築など、社会実装に不可欠な技術が含まれます。

受賞者はスタンフォード大学やMITハーバード大学など、世界トップレベルの研究機関に所属しています。彼らは奨学生としてだけでなく、NVIDIAの研究者と共に次世代の技術革新をリードする役割が期待されています。

MIT、LLMの推論コストを半減させる動的調整技術を開発

推論コストの課題と解決策

従来は難易度によらず計算量が固定
新手法は問題ごとに計算量を動的調整
既存手法比で計算量を約半分に削減

技術の仕組みと成果

PRMで解決策の有望さを評価
過信を防ぐキャリブレーションを導入
小規模モデルでも高難度タスクが可能
生成AIのエネルギー消費削減に貢献

マサチューセッツ工科大学(MIT)の研究チームは、大規模言語モデル(LLM)が問題を解く際の計算量を最適化する新技術「インスタンス適応型スケーリング」を開発しました。問題の難易度に応じて思考時間を調整することで、精度を落とさずに計算コストを劇的に削減します。

従来の「推論時スケーリング」と呼ばれる手法では、問題の難易度に関わらず一定の計算予算を割り当てていました。そのため、簡単な質問に無駄なリソースを費やしたり、逆に複雑な推論を要する難問に対して思考時間が不足したりする非効率が生じていました。

新手法は、人間が問題の難しさに応じて思考の深さを変えるプロセスを模倣します。プロセス報酬モデル(PRM)を用いて、生成された部分的解決策が正解につながる確率をリアルタイムで評価し、有望な解決策のみに計算リソースを集中投下します。

研究チームは、PRMが自身の判断を過信しがちであるという課題に対し、確率スコアを正確に見積もるキャリブレーション手法も導入しました。これにより、AIは「何が分からないか」をより正確に認識し、必要な場合のみ計算予算を増やすことが可能になります。

実証実験では、数学的な推論タスクにおいて、既存手法と比較して計算量を約半分に抑えつつ同等の精度を達成しました。この技術により、リソースの少ない小規模なモデルであっても、複雑な問題において大規模モデルに匹敵する性能を発揮できる可能性があります。

この成果は、生成AIのエネルギー消費削減に寄与するだけでなく、推論コストがボトルネックとなっていた高度なAIエージェントの実用化を加速させます。自律的に学習し改善するAIシステムの構築に向けた、重要な一歩となるでしょう。

AIの説得力は超人レベル未達、8万人調査で判明

8万人が参加した最大規模の研究

英米研究機関が史上最大規模で検証
英国の約8万人が対話実験に参加
最新の19モデルで政治的影響を測定

SF的な脅威は時期尚早

争点707項目で意見変容をスコア化
現状では超人的な説得力は確認されず
アルトマン氏の予言とは異なる結果

英国AI安全研究所やMITなどの国際的な研究チームは、AIチャットボットが人間に及ぼす政治的影響力を検証するため、英国で約8万人を対象とした史上最大規模の実証実験を行いました。

その結果、現在のAIモデルは政治的な説得において「超人的な能力」には達していないことが明らかになりました。これは、AIが汎用知能の完成前に人間を自在に操るようになるとした過去の予測とは異なる重要な発見です。

実験ではChatGPTGrok-3を含む19種類のLLMを使用し、707の政治的争点について参加者と対話させました。対話前後の意見の変化を数値化し、AIによる世論誘導のリスクを定量的に評価しています。

多くの人々がAIによる民主主義への悪影響を懸念していますが、今回の研究はその脅威が現時点では限定的であることを示唆しています。一方で、技術の進化速度を考慮すると、今後も継続的な監視と検証が不可欠です。

MIT新ツール「Macro」:複雑な電力網計画を高速最適化

複雑化する電力計画の課題

AIや電化による電力需要の急増
再エネ導入に伴う供給不安定さへの対応

Macroの革新的機能

産業間の相互依存関係をモデル化
4つのコア要素で柔軟にシステム記述
大規模計算を並列処理で高速化

実用性と今後の展望

政策影響をリアルタイムで試算
オープンソースで商用・研究に無料公開

MITの研究チームは2025年12月3日、複雑化する電力システムの将来計画を支援する新しいモデリングツール「Macro」を発表しました。AIの普及や脱炭素化の進展により電力需要予測が困難になる中、このツールは発電容量や送電網の最適な設計を高速かつ高精度に導き出します。既存モデルを凌駕する拡張性を持ち、政策立案者やインフラ計画担当者にとって強力な武器となります。

現在、データセンターでのAI活用や輸送・建物の電化により、電力需要は爆発的に増加しています。一方で、風力や太陽光といった再生可能エネルギーは発電量が天候に左右されるため、安定供給には蓄電池やバックアップ電源との綿密な連携が不可欠です。従来の計画モデルでは、こうした変動要因や厳しい信頼性要件、さらには脱炭素目標を同時に満たす複雑なシミュレーションに限界が生じていました。

Macroは、MITが以前開発したGenXなどのモデルを基盤としつつ、より大規模で高解像度な解析を可能にしました。最大の特徴は、エネルギーシステムを「転送・貯蔵・変換・入出力」という4つの基本要素に分解して記述するアーキテクチャです。これにより、電力網だけでなく、水素やセメント生産といった他産業との相互依存関係も含めた包括的なモデル化を実現しました。

計算処理の面でも大きな進化を遂げています。Macroは巨大な問題を小さなタスクに分割し、複数のコンピュータで並列処理することが可能です。これにより、従来は近似計算に頼らざるを得なかった複雑な送電網の最適化問題なども、AI技術を組み合わせて高精度に解くことができます。また、Excelでのデータ入力に対応するなど、専門家以外でも扱いやすい設計がなされています。

今後は、政策立案者がリアルタイムで政策の影響を検証できるエミュレータとしての活用も期待されています。例えば、特定の炭素税導入が電力価格や排出量にどう影響するかを即座に可視化することが可能になります。Macroはオープンソースソフトウェアとして公開されており、すでに米国韓国インド中国の研究チームによってテスト運用が始まっています。

MIT、AI制御で蜂並みの飛行ロボットを開発

AI技術で身体能力が覚醒

速度450%、加速度250%向上
11秒で10回の連続宙返りに成功
外乱に耐える高い飛行安定性を実現

重い計算を軽量化する工夫

モデル予測制御で最適解を算出
模倣学習でAIモデルへ知識を圧縮
実機でのリアルタイム制御が可能に

米マサチューセッツ工科大学(MIT)の研究チームは、マルハナバチに匹敵する敏捷性を持つ超小型飛行ロボットを開発しました。従来のマイクロロボットは動きが緩慢でしたが、新たなAI制御技術により、狭い空間での高速飛行や障害物回避が可能になります。将来的には、倒壊した建物内での被災者捜索など、大型ロボットが進入できない災害現場での活用が期待されています。

このロボットの核心は、計算効率と制御精度を両立させた「2段階のAI制御システム」です。まず、物理演算に基づくモデル予測制御を用いて、宙返りなどの複雑な動作に必要な最適軌道を計画します。次に、その膨大な計算結果を教師データとして「模倣学習」を行い、軽量なニューラルネットワークに圧縮することで、機体でのリアルタイム処理を実現しました。

実験では、従来機と比較して飛行速度が約450%、加速度が約250%向上するという劇的な成果を上げました。風による外乱があっても姿勢を崩さず、わずか11秒間で10回の連続宙返りを成功させています。研究チームは今後、カメラやセンサーを搭載し、外部システムに依存しない完全自律飛行の実現を目指して開発を進める方針です。

MITが開発、ソフトロボットを安全制御する新技術

柔軟性と安全制御を高度に両立

非線形制御理論で複雑な動きを管理
接触を回避せず接触認識で安全確保
リアルタイムで力の限界を最適化

医療や製造現場での実用化へ

手術支援や壊れやすい物の操作に対応
人との協働を安全かつ円滑に
数理モデルで動作保証を確立

マサチューセッツ工科大学(MIT)の研究チームは2025年12月、人間や壊れやすい物体と安全に接触できるソフトロボット向けの制御システムを発表しました。柔軟な素材の特性を活かしつつ、数理モデルで力の加減を厳密に制御し、医療や産業現場での安全な協働作業を実現します。

本技術の核心は「接触認識安全性」フレームワークです。安全な動作範囲を定める高次制御バリア関数と、目標へ導く高次制御リアプノフ関数を統合しました。これにより、ロボットは自身の限界を把握し、過度な力を防ぎつつ効率的にタスクを遂行します。

従来のソフトロボットは動きの予測が困難でした。新システムでは、変形を予測するPCSモデルと、障害物との距離を計算するDCSAT手法を採用しています。これらは微分可能なシミュレーションに基づき、リアルタイム最適化による精密な制御を可能にしました。

検証実験では、ロボットが柔らかい表面へ正確に力を加えたり、曲面に沿って物体を把持したりする動作に成功しました。不意な接触にも即座に対応できるため、手術支援や介護、繊細な製品の取り扱いなど、高度な安全性が求められる現場での活用が期待されます。

OpenAGIが新モデル「Lux」発表、競合超える性能と低コスト実現

競合を凌駕する操作性能

Online-Mind2Webで成功率83.6%を達成
OpenAI等の主力モデルを20pt以上リード
行動と視覚情報に基づく独自学習

高効率・広範囲な実務適用

ブラウザ外のネイティブアプリも操作可能
競合比で10分の1の低コスト運用
Intel提携エッジデバイスへ最適化

MIT出身の研究者が率いるOpenAGIがステルスモードを脱し、自律型AIエージェント「Lux」を発表しました。同社は、この新モデルがOpenAIAnthropicといった業界大手のシステムと比較して、コンピュータ操作においてより高い性能を発揮しつつ、運用コストを大幅に削減できると主張しています。

Luxの最大の特徴は、実際のWeb環境でのタスク遂行能力を測る厳格なベンチマーク「Online-Mind2Web」での圧倒的なスコアです。競合のOpenAI製モデルが61.3%、Anthropic製が56.3%にとどまる中、Luxは83.6%という高い成功率を記録しました。これは、テキスト生成ではなく「行動」の生成に特化した設計の成果です。

同社独自の学習法「Agentic Active Pre-training」では、静的なテキストデータではなく、スクリーンショットと一連の操作手順を学習データとして用います。モデルは試行錯誤を通じて環境を探索し、その経験を新たな知識としてフィードバックすることで、自律的に性能を向上させる仕組みを持っています。

実用面での優位性も見逃せません。多くの競合エージェントがブラウザ操作に限定される中、LuxはExcelやSlackを含むデスクトップアプリ全般を制御可能です。さらに、Intelとの提携によりエッジデバイスでの動作も最適化されており、セキュリティを重視する企業ニーズにも対応します。

創業者のZengyi Qin氏は、過去にも低予算で高性能なモデルを開発した実績を持つ人物です。今回の発表は、膨大な資金力を持つ巨大企業に対し、革新的なアーキテクチャを持つスタートアップが対抗できる可能性を示唆しており、AIエージェント市場の競争を一層激化させるでしょう。

AIエージェントが描く労働の未来と社会科学の高速化

AI代理人が変える市場と制度

AI代理人による意思決定の増加を予測
人間の好みを反映するシステム設計の研究
エージェント市場や制度に与える影響

社会科学研究の圧倒的加速

AIによる人間反応シミュレーション
数百万回の行動実験を数分で試行可能
経済変化に理解のスピードを同期

MITスローンスクールの博士候補生ベンジャミン・マニング氏は、AIが人間の代理として意思決定を行う未来を見据え、その市場への影響や、AIシミュレーションを活用した社会科学研究の加速化について研究を進めています。

マニング氏は、AIエージェントが普及する中で、システムが人間の好みをどう理解し反映すべきかを探求しています。AIの振る舞いが市場や社会制度そのものをどう変容させるか、経済学と計算機科学を融合させて分析を行います。

また、AIによる人間行動のシミュレーションも重要なテーマです。数百万回の実験を数分で実施して仮説を検証することで、高コストな人間対象の研究を行う前に有望な方向性を特定し、研究開発のサイクルを劇的に短縮します。

このアプローチは人間の洞察を置き換えるのではなく、増幅させるものです。研究者がより本質的な問いや理論構築に集中できるようにし、激しい経済変化のスピードに理解のペースを追いつかせる世界を目指しています。

ノルウェー養殖×AI:給餌最適化と自律ロボで収益を最大化

AIによる飼料コスト削減

最大コストの飼料配分を最適化
水温や魚体サイズを精密分析
収益性向上に直結する技術

ロボットによる完全自律化

網の点検を行う水中ロボット
数千台規模の運用に対応
人手不足を補う高度な自律性

現場と技術の融合

生物学的知見との統合が必須
現場視察による一次情報の価値

MIT学生らが、世界最大のサーモン生産国ノルウェーで、AIとロボティクスを活用した次世代養殖技術の実証研究に取り組みました。最大のコスト要因である給餌の最適化や、過酷な環境下で稼働する水中ロボットの自律化など、生産性と収益性を高めるための具体的な技術革新が進められています。

養殖業において最も大きなコストを占めるのが飼料代であり、この最適化が収益改善の鍵を握ります。研究では、水温や魚のサイズといった環境データをAIが分析し、過不足のない最適な給餌量を算出するシステムを開発しました。これにより、飼料の無駄を削減しつつ、魚の成長を最大化することが可能となります。

ノルウェー沿岸には約1000の養殖場があり、検査や清掃のために数千台規模のロボットが稼働しています。これら全てを人間が操作することは経済的にも実務的にも不可能なため、ロボットの自律性向上が急務です。学生らは、網の損傷を自律的に修復するロボットアームのシミュレーションなど、省人化技術の開発に注力しました。

こうした技術開発において重要なのが、エンジニアリングと生物学の融合です。「動く生き物」を相手にする養殖現場では、単なる機械的効率だけでなく、魚の福祉や生態への配慮が欠かせません。現場で実際のスケール感や課題に触れることが、実用的なソリューション開発への近道であると専門家は指摘しています。

Liquid AI、エッジAI開発の「設計図」を全公開

企業向け小規模モデルの革新

51ページの技術レポートを公開
独自のLFM2アーキテクチャ詳解
CPU環境での推論効率を最大化
競合を凌ぐ処理速度と品質

実践的なハイブリッド戦略

自社データでのオンプレミス運用
画像音声対応のマルチモーダル
クラウド不要のローカル処理実現
エッジとクラウド協調動作

MIT発のスタートアップLiquid AIは2025年12月1日、最新AIモデル「LFM2」の技術レポートを公開しました。これは単なるモデル提供にとどまらず、企業が独自のハードウェア制約に合わせて高性能な小規模モデルを構築するための「設計図」を提供するものです。巨大なGPUクラスターを前提としないこのアプローチは、コストやプライバシーを重視する企業のAI戦略に、オンデバイスでの実用化という新たな選択肢をもたらします。

LFM2の最大の特徴は、一般的なCPUやモバイルSoC上での動作に最適化されている点です。独自開発されたハイブリッドアーキテクチャにより、同規模の競合モデルであるLlama 3.2やGemma 3と比較して、推論速度と品質の両面で高いパフォーマンスを発揮します。これにより、スマートフォンやノートPC、産業機器など、通信環境や電力に制約のあるエッジ環境でも、遅延の少ない高度なAI処理が可能になります。

今回公開された51ページのレポートでは、アーキテクチャ探索プロセスやトレーニングデータの混合比率、知識蒸留の手法など、モデル開発の詳細なレシピが明かされました。企業はこの情報を参照することで、ブラックボックス化した外部APIに依存することなく、自社のデータセンターデバイス上で完結するAIシステムを構築・運用できるようになります。これは、セキュリティ要件の厳しい産業分野において大きなアドバンテージです。

さらにLFM2は、テキストだけでなく画像音声にも対応するマルチモーダル機能を、トークン効率を極限まで高めた形で実装しています。現場でのドキュメント理解や音声操作といったタスクを、データを外部に送信することなくローカルで完結させることが現実的になります。Liquid AIの提示するこのモデルは、エッジとクラウドが適材適所で連携する「ハイブリッドAI」時代の標準的な構成要素となるでしょう。

GM、AIで電池開発加速 28年に新素材LMR実用化へ

AI活用による開発の高速化

開発期間を数か月から数日に短縮
AIシミュレーションで配合を最適化
ニッケル含有量等の即時分析が可能

新素材LMRと供給網の自立

新素材LMRバッテリーを採用
LFP並みの低コストで長航続距離
2028年に世界初の市場投入
北米でのサプライチェーン自立

ゼネラルモーターズ(GM)の幹部カート・ケルティ氏はMITでの講演で、EV普及の鍵となるバッテリー革新の戦略を明らかにしました。コスト削減、性能向上、そして北米でのサプライチェーン構築を三大柱として掲げ、次世代技術の商業化を急いでいます。

特筆すべきは、R&D;(研究開発)におけるAIと仮想化技術の活用です。従来数か月を要した材料配合の調整や性能評価のモデリングを数日に短縮することに成功しました。これにより、ニッケル含有量の微調整が安全性やエネルギー密度に与える影響を即座に予測可能です。

技術的な最大のブレークスルーは、リチウム・マンガン・リッチ(LMR)バッテリーの実用化です。高価なコバルトやニッケルを減らしてマンガンを増やすことで、中国勢が強みを持つLFPバッテリー並みの低コストと、高ニッケル電池に近い航続距離の両立を実現します。

LMR技術自体は既知でしたが、商業化には課題がありました。GMはこの壁を乗り越え、2028年に市場投入する最初の企業となる見込みです。これは、安価な中国製バッテリーに対抗し、北米での競争力を確保するための戦略的な一手となります。

さらに、EVを蓄電池として活用するV2G(Vehicle-to-Grid)技術や、データセンター向けのグリッド規模の蓄電市場にも意欲を見せました。ケルティ氏は、米国には技術革新の土壌があり、製造拠点の回帰と合わせて巨大なバッテリー産業を構築できると強調しています。

DeepSeek V3.2、GPT-5匹敵の性能で無料公開

圧倒的な性能とコスト効率

GPT-5Gemini匹敵する推論能力
新技術DSAで推論コストを70%削減
数学五輪で金メダル級のスコアを記録

実用性と市場への衝撃

ツール使用中も思考を持続する機能搭載
商用可能なMITライセンスで完全公開
オープンソース戦略で業界構造を破壊

中国DeepSeekは2025年12月1日、米国GPT-5Gemini 3.0に匹敵する新モデル「DeepSeek-V3.2」を公開しました。MITライセンスでの無料公開であり、圧倒的な性能と低コストでAI業界の勢力図を塗り替えようとしています。

本モデルの核心は、「DeepSeek Sparse Attention」と呼ばれる新技術です。必要な情報のみを抽出処理することで、長文脈の処理においても推論コストを約70%削減し、100万トークンあたり0.70ドルという驚異的な安さを実現しました。

性能面でも世界最高水準に到達しました。特に推論特化型の「Speciale」は、国際数学オリンピックやコーディング課題において金メダル級のスコアを記録し、一部のベンチマークではGPT-5Geminiを凌駕する結果を残しています。

実務面での革新は「ツール使用中の思考維持」です。検索やコード実行を行う際も思考プロセスを途切れさせないため、複雑な課題解決が可能です。これにより、エンジニア高度なAIエージェントをより安価に構築できるようになります。

今回のリリースは、米国の輸出規制下でも中国が最先端AIを開発できることを証明しました。高性能モデルの無償公開は、高額なAPI利用料に依存する既存のビジネスモデルを根底から揺るがす、極めて戦略的な一手といえます。

2025年AI総括:GPT-5実用化と中国・小型モデルの台頭

OpenAIの進化と実用化加速

GPT-5と5.1が始動、ZenDeskで解決率9割事例も
Sora 2やブラウザAtlas、OSSモデルも全方位展開
コーディング特化モデルで長時間タスクが可能に

中国勢と多様なモデルの台頭

DeepSeekQwen3など中国OSSが世界を席巻
Google Gemma 3など超小型モデルが実用段階へ
Gemini 3やClaude Opus 4.5で競争激化

2025年11月、米VentureBeatは今年のAI業界を振り返る総括記事を公開しました。2025年は、特定の最強モデル一強ではなく、オープンソースや中国勢、エッジ向け小型モデルを含めた「エコシステムの多様化」が決定的となった年です。経営者エンジニアにとって、用途に応じて最適なAIを選択できる環境が整ったことが、今年最大の収穫と言えるでしょう。

OpenAIは待望のGPT-5およびGPT-5.1をリリースし、市場を牽引し続けました。初期の反応は賛否両論ありましたが、改良を経てZenDeskなどの企業導入が進み、顧客対応の自動解決率が80〜90%に達する事例も報告されています。さらに、動画生成AI「Sora 2」やブラウザ統合型「Atlas」、そして意外にもオープンウェイトモデルの公開など、全方位での攻勢を強めています。

特筆すべきは中国発のオープンソースモデルの躍進です。DeepSeek-R1やAlibabaのQwen3シリーズなどが、推論能力やコーディング性能で米国のフロンティアモデルに肉薄しています。MITなどの調査によれば、中国製モデルのダウンロード数は米国をわずかに上回る勢いを見せており、コストパフォーマンスを重視する企業にとって無視できない選択肢となりました。

「巨大化」へのカウンターとして、小型・ローカルモデルの実用性も飛躍的に向上しました。GoogleGemma 3やLiquid AIのLFM2は、パラメータ数を抑えつつ特定タスクに特化し、エッジデバイスやプライバシー重視の環境での利用を可能にしました。すべての処理を巨大クラウドAIに依存しない、分散型のAI活用が現実味を帯びています。

画像生成や競合他社の動きも活発です。MetaMidjourneyの技術ライセンスを取得し、自社SNSへの統合を進めるという驚きの戦略に出ました。一方、GoogleGemini 3に加え、ビジネス図解に強い画像生成モデル「Nano Banana Pro」を投入しています。AnthropicClaude Opus 4.5やBlack Forest LabsのFlux.2など、各領域でハイレベルな競争が続いています。

MITがLLMの重大欠陥発見、文法依存で信頼性低下

意味より文法を優先する罠

LLMは文法構造のみで回答する傾向
意味不明な質問でももっともらしく応答
訓練データの構文パターンに依存

業務利用とセキュリティへの影響

金融や医療など高信頼性タスクリスク
安全策を突破し有害回答を誘発可能
モデル評価用のベンチマークを開発

マサチューセッツ工科大学(MIT)の研究チームは、大規模言語モデル(LLM)が文の意味よりも文法構造に過度に依存する重大な欠陥を発見しました。この特性は、AIの信頼性を損ない、予期せぬエラーやセキュリティリスクを引き起こす可能性があります。

研究によると、LLMは質問の意味を深く理解するのではなく、訓練データに含まれる特定の構文パターンを認識して回答を生成する傾向があります。つまり、意味が通らない質問でも、構文が馴染み深ければ、もっともらしい答えを返してしまうのです。

たとえば「パリはどこですか」という質問の構文を学習したモデルは、同じ文構造を持つ無意味な単語の羅列に対しても「フランス」と答える誤作動を起こします。これは、モデルが意味的な理解を欠いている証拠と言えるでしょう。

この欠陥は、ビジネスにおける深刻なリスクとなります。顧客対応の自動化や金融レポートの生成など、正確性が求められる業務において、AIが誤った情報を自信満々に提示するハルシネーションの一因となり得るからです。

さらにセキュリティ上の懸念も指摘されています。悪意ある攻撃者が、安全と見なされる構文パターンを悪用することで、モデルの防御機能を回避し、有害なコンテンツを生成させる手法に応用できることが判明しました。

研究チームはこの問題に対処するため、モデルが構文にどの程度依存しているかを測定する新しいベンチマーク手法を開発しました。エンジニア開発者AI導入前にリスクを定量的に評価し、事前に対策を講じることが可能になります。

MITが生成AI「BoltzGen」発表 創薬困難な疾患へ挑む

構造予測と分子設計を統合

Boltz-2を基盤に新規結合剤を生成
物理化学的制約を組み込み実用性を確保
構造予測と設計を単一モデルで統合

業界への衝撃と新たな可能性

創薬困難な標的を含む26事例で検証
オープンソース化が業界構造を変革
バイオ企業のビジネスモデルに影響も

マサチューセッツ工科大学(MIT)の研究チームは2025年11月25日、治療困難な疾患に対応する分子を設計する生成AIモデル「BoltzGen」を発表しました。既存の構造予測モデルを発展させ、創薬プロセスにおける新規タンパク質の生成を可能にします。

BoltzGenの最大の特徴は、タンパク質の構造予測と設計を単一のモデルで統合した点です。ウェットラボからのフィードバックに基づいた物理的・化学的制約を学習に組み込むことで、理論上だけでなく実際に機能する分子を設計します。

従来のモデルは既存データに類似した標的以外では精度が落ちる課題がありました。しかし本モデルは、アカデミアや産業界の8つのラボと連携し、あえて訓練データと異なる「創薬困難」な26の標的で検証を行い、その汎用性を実証しています。

この高性能モデルがオープンソースで公開されたことは、バイオ業界に大きな衝撃を与えています。独自の設計技術をサービスとして提供する企業の優位性が揺らぐ可能性があり、ビジネスモデルの再構築が迫られるでしょう。

研究チームは、AIによる生物学的操作が将来の医療を根本から変えると確信しています。まだ人類が想像もつかないような分子機械の設計や、未知の治療法開発に向けた強力なツールとして、BoltzGenは創薬の民主化を加速させます。

言語能力≠知能。脳科学が暴く「LLM=AGI」の幻想

AIブームを支える危うい前提

CEOらは言語モデルの先に超知能を予言
LLMの実体は確率的な次単語予測

脳科学が示す「言語と思考の分離」

言語中枢と論理・推論の脳領域は別系統
失語症でも数学や論理的思考は維持
乳幼児は発話前から仮説検証を行う

生成AIの限界と活路

LLMは既存知見の再構成に留まる
真の知能には物理世界の理解が必須

ザッカーバーグ氏らテック界の巨頭は、数年以内の「超知能」到来を声高に叫んでいます。しかし、最新の神経科学はこれに冷ややかな視線を送ります。「言語操作」と「思考」は脳内で全く別のプロセスだからです。経営者はこの科学的事実を直視し、AIへの過度な期待を精査すべき時です。

ChatGPTなどのLLMは、膨大なテキストデータから単語の統計的相関を見つけ、尤もらしい続きを予測するツールに過ぎません。これらは言語の「形式」を巧みに模倣していますが、人間のような「意味理解」や「論理的推論」といった思考そのものを行っているわけではないのです。

MITなどの研究によれば、脳内の言語野と論理的思考を司る領域は明確に分かれています。重度の失語症で言葉を失った人でも、数学的な難問を解き、複雑な因果関係を理解できます。逆に、言葉を持たない乳幼児も、科学者のように仮説検証を行いながら世界を学習しています。

では言語とは何か。それは思考を生む土壌ではなく、思考の結果を他者と共有するための「高効率な通信ツール」です。人間は言語がなくとも思考できますが、LLMから言語データを奪えば、そこには何も残りません。ここに、人間と現在のAIとの決定的な断絶があります。

AI業界内部でも、単なるLLMの大規模化だけでは汎用人工知能(AGI)に到達できないという声が高まっています。チューリング賞受賞者のヤン・ルカン氏らは、テキスト処理だけでなく、物理法則や因果関係を理解する世界モデルの構築が必要だと提唱し始めました。

AIは既存データを再構成する「常識の貯蔵庫」としては優秀です。しかし、現状に不満を抱き、新たなパラダイムを創造する動機を持ちません。リーダーはAIを「思考代行装置」ではなく、あくまで知見を整理・共有するための高度なガジェットとして使いこなすべきです。

AIが加速する脱炭素:送電網制御と素材開発の最前線

送電網の自律制御と安定化

再エネの出力変動をAIで調整
EVや機器連携で電力需要を柔軟化
予知保全による停電リスクの回避

インフラ計画と素材開発の革新

気候リスク予測で投資計画を最適化
規制文書分析で承認プロセス短縮
新素材開発を数十年から数年に短縮

AIの電力消費増大が懸念される一方、マサチューセッツ工科大学(MIT)は2025年11月、AIこそがクリーンエネルギー移行の切り札になると提言しました。送電網の複雑な制御から画期的な新素材開発に至るまで、AI技術がエネルギー産業の構造的課題を解決する鍵となります。最新の研究成果に基づき、脱炭素社会実現に向けた具体的なAI活用戦略を解説します。

最も即効性が高い領域は電力網(グリッド)の高度化です。太陽光や風力といった天候任せの再エネ電源が増える中、AIは需給バランスをマイクロ秒単位で調整します。EVの充電タイミング制御やデータセンターの負荷調整を通じて需要側を柔軟に管理し、老朽化した設備の故障を予知して大規模停電を防ぐ役割も担います。

将来のインフラ投資計画においてもAIは不可欠です。気候変動による異常気象リスクや、複雑化する電源構成をシミュレーションし、最適な設備投資を導き出します。さらに、膨大な規制文書を大規模言語モデル(LLM)で解析することで、認可申請プロセスを効率化し、プロジェクトの遅延を防ぐことが可能です。

特筆すべきは新素材開発の劇的な加速です。従来は数十年を要した次世代バッテリーや原子炉用材料の開発期間を、AIとロボット実験の連携により数年単位に短縮できます。AIは過去の膨大な論文を学習し、最適な実験手順を提案・実行することで、人間には不可能な速度でイノベーションを創出します。

MITエネルギーイニシアティブ(MITEI)は、核融合炉の制御やデータセンター自体の省エネ化にもAIを活用しています。技術者、経済学者、政策立案者が連携し、AIと物理インフラを融合させることが、安定かつクリーンなエネルギー社会実現の必須条件です。

MSのPC操作AI「Fara-7B」 端末完結でGPT-4o凌駕

端末完結でGPT-4o超え

70億パラメータの軽量モデルでPC動作
WebVoyagerで勝率73.5%を達成
視覚情報のみでマウス・キー操作

高度なプライバシーと安全設計

データが外部に出ないピクセル主権
重要操作前に停止する安全機構

革新的な学習手法と入手性

合成データによる効率的な学習
MITライセンスで商用利用も可能

マイクロソフトは2025年11月24日、PC操作に特化した新しい小規模言語モデル(SLM)「Fara-7B」を発表しました。わずか70億パラメーターながら、GPT-4oベースのエージェントを凌駕する性能を記録。データが外部に出ないオンデバイス実行を実現し、プライバシー保護と低遅延を両立させています。

最大の特徴は、人間と同じように画面の視覚情報だけを頼りに操作を行う点です。HTMLコード等の裏側情報を必要とせず、スクリーンショットからボタン位置などを認識してマウスやキーボードを操作します。Web操作のベンチマーク「WebVoyager」では、GPT-4o(65.1%)を上回る73.5%のタスク成功率を達成しました。

ビジネス利用で重要なのがセキュリティです。Fara-7Bはローカル環境で動作するため、機密情報がクラウドに送信されるリスクを排除する「ピクセル主権」を確立しています。また、送金やメール送信などの不可逆的な操作の直前には、必ずユーザーの同意を求める「クリティカルポイント」機能が組み込まれています。

開発には「知識の蒸留」という高度な手法が用いられました。マルチエージェントシステム「Magentic-One」が生成した14万件以上の高品質な合成データを学習させることで、小型モデルながら複雑な推論能力を獲得しています。ベースモデルには視覚処理に優れたQwen2.5-VL-7Bが採用されました。

本モデルは現在、Hugging Face等を通じてMITライセンスで公開されており、商用利用を含む試験運用が可能です。Windows 11搭載のCopilot+ PCでも動作確認済みで、企業は自社のセキュリティ要件に合わせたPC操作自動化エージェントの開発を、低コストかつ安全に開始できます。

MIT研究:AIと人間の「思考コスト」は驚くほど類似

推論モデルに見る人間との共通点

AIと人間は思考コストが類似
難問ほどAIも処理量が増加
設計でなく自然発生的な収束

実験結果と今後のAI開発

解答時間とトークン数が相関
算術は軽く抽象推論は重い
言語でなく抽象空間で思考

マサチューセッツ工科大学(MIT)の研究チームは、最新のAI推論モデルが人間と同様の「思考コスト」を要することを学術誌『PNAS』で発表しました。人間が複雑な問題に時間をかけるのと同様に、AIも難問に対しては内部処理を増やす傾向があることが明らかになりました。

従来のChatGPTのような大規模言語モデルは即答を得意としていましたが、複雑な推論は苦手でした。一方、新たな推論モデルは問題を段階的に処理することで、数学やプログラミングなどの難問解決能力を劇的に向上させています。

研究では人間とAIに同じ課題を与え、人間の「思考時間」とAIの「内部トークン数」を比較しました。その結果、算術問題は比較的負荷が低く、抽象的な推論問題は負荷が高いという傾向が、人間とAI双方で驚くほど一致しました。

この類似性は意図的な設計によるものではなく、正答率を追求した結果としての自然発生的な収束です。AI開発者が人間模倣を目指さずとも、高度な知能システムは似たような処理プロセスに行き着く可能性を示唆しています。

興味深いことに、AIは思考過程で言語のようなトークンを生成しますが、実際の計算は人間と同様に非言語的な抽象空間で行われているようです。この発見は、AIの進化だけでなく人間の脳の理解にも新たな視点を提供します。

MIT、人間のようにCAD操るAI開発 スケッチから3D生成

独自データで操作学習

4万件超のVideoCAD構築
UI操作を詳細に学習
2Dから3Dへ自動変換
クリック単位で模倣

設計プロセスの革新

CADコパイロットへの道
初心者の参入障壁低下
NeurIPSで発表予定

MITの研究チームは、人間のようにCADソフトウェアを操作し、2Dスケッチから3Dモデルを作成するAIエージェントを開発しました。4万1000件以上の操作手順を含む独自データセット「VideoCAD」を活用し、ボタン操作やマウス移動まで詳細に学習させています。

従来のAIは高レベルなコマンド指示に留まりがちでしたが、本システムは具体的なUI操作まで理解します。「線を引く」という指示を、特定のピクセル位置へのカーソル移動やクリック動作に変換し、実用的な操作を自律的に実行可能です。

研究チームは、このAIを設計者の「コパイロット」として機能させることを目指しています。退屈な反復作業を自動化することで、熟練エンジニア生産性を高めるだけでなく、初心者がCADを習得するハードルを大幅に下げることが期待されます。

この成果は12月のNeurIPS会議で発表される予定です。将来的には、さらに複雑な形状や複数のCADシステムに対応できるよう学習を進め、製造業や建築業など幅広い分野での設計プロセス革新に貢献する見込みです。

MIT会議、送電網強靭化と対中競争・連携強化が焦点に

産学連携と送電網の強靭化

技術革新へスタートアップ連携が必須
スペイン停電受け送電網の強靭化を議論
データセンター電力フォーラムを発足

脱炭素技術と商業化の壁

2050年に300TWhの蓄電が必要
特許の商業化率はわずか4.2%と判明
持続可能燃料の研究を26年から拡大

中国優位と米国の政策課題

中国クリーンテック競争で優位に
米国政策の一貫性欠如が弱点

マサチューセッツ工科大学(MITエネルギーイニシアチブ(MITEI)は年次研究会議を開催し、エネルギー転換における産学官連携、送電網の強靭化、米中競争の行方を主要テーマとして議論しました。2025年4月のスペイン大規模停電や中国のクリーンテック優位性を背景に、参加者は技術革新の加速と政策の安定性が急務であるとの認識を共有しています。

会議では、単独でのイノベーションは限界に達しており、スタートアップや大学とのパートナーシップが不可欠であると強調されました。特に再生可能エネルギーの統合やデータセンターの需要増大に伴い、既存の電力システムへの負荷が懸念されています。これを受け、MITEIは新たに「データセンター電力フォーラム」を立ち上げ、インフラ強化と緊急時計画の策定に向けた議論を主導する方針です。

脱炭素化の実現に向けた技術的課題も浮き彫りになりました。2050年の目標達成には300テラワット時の蓄電容量が必要と試算されていますが、特許の商業化率はわずか4.2%に留まっています。MIT発の高温熱貯蔵技術や持続可能な燃料開発への期待が高まる一方で、研究室から市場への橋渡しを行う支援体制の強化が求められています。

地政学的リスクについては、中国が風力や太陽光分野で圧倒的なシェアを握る中、米国政策の一貫性欠如が競争力低下の要因として指摘されました。一方で、電池製造における米中企業の合弁事業など、現実的な供給網強化の動きも見られます。専門家は、米国が競争力を取り戻すには、長期的な超党派のエネルギー政策と国際的な協力体制の構築が必要だと結論付けています。

Weibo、低コスト小型AIで巨大モデル超え性能

低コストで巨大モデル超え

Weibo公開の15億パラメータLLM
後訓練コストはわずか7800ドル
数学・コードで巨大モデルを凌駕
商用利用可能なMITライセンス

新訓練手法と企業への示唆

新手法「SSP」で効率的な学習
多様な解を探求し最適解を増幅
エッジデバイスにも搭載可能
推論コストの大幅な削減を実現

中国のSNS大手Weiboが、オープンソースの小規模言語モデル(LLM)「VibeThinker-1.5B」を発表しました。このモデルはわずか15億パラメータと小型ながら、数学コーディング推論タスクで数百倍規模のモデルを凌駕する性能を達成。後訓練にかかった費用はわずか7800ドル(約120万円)で、AI開発における「規模の経済」という常識を覆す可能性を秘めています。

VibeThinker-1.5Bの性能は、多くのベンチマークで証明されています。特に数学コーディングの分野では、6710億パラメータのDeepSeek R1や、Anthropic社のClaude Opus 4といった巨大モデルと互角以上のスコアを記録しました。これは、モデルの性能がパラメータ数だけで決まるわけではないことを明確に示しています。

この驚異的な性能の背景には、「SSP(Spectrum-to-Signal Principle)」と呼ばれる独自の訓練手法があります。この手法は、学習を2つの段階に分けます。まず、教師ありファインチューニング(SFT)で多様な正解候補を生成。次に、強化学習(RL)を用いてその中から最も確からしい解を特定し、増幅させます。

SSPは、大規模なパラメータに頼らずとも、モデルが推論の「探索空間」を効率的に探ることを可能にします。最初に幅広い可能性(スペクトル)を探り、そこから最も強い信号(シグナル)を見つけ出すアプローチにより、小規模なモデルでも高い論理的思考力を獲得できるのです。これはAI開発のコスト構造を大きく変える可能性があります。

企業にとって、このモデルは非常に魅力的です。小型であるため、スマートフォンや車載システムなどのエッジデバイスにも搭載可能。推論コストは大規模モデルの20分の1から70分の1にまで削減できると試算されています。これにより、これまでコスト面で導入が難しかった高度なAI機能の実用化が加速するでしょう。

VibeThinker-1.5Bの登場は、AI開発のトレンドがパラメータ数の競争から、より効率的で洗練された訓練手法へと移行しつつあることを示唆しています。コスト、速度、そして制御のしやすさを求める企業にとって、このモデルは実用的なAI導入に向けた強力な選択肢となることは間違いありません。

AIは単一の現実に収斂、MIT新仮説

プラトン的表現仮説

多様なAIが共通の内部表現を獲得
言語・画像・音は現実の「影」
モデルは単一の世界モデルに収斂

知能の本質を探る研究

人間のような知能の計算論的解明
ラベルなしで学ぶ自己教師あり学習
性能目標より基礎原理の発見を重視

マサチューセッツ工科大学(MIT)のフィリップ・イゾラ准教授が、AIの知能に関する新たな仮説を提唱し注目を集めています。言語や画像など異なるデータを学習する多様なAIモデルが、最終的に現実世界の共通した内部表現に収斂するという「プラトン的表現仮説」です。人間のような知能の基本原理を解明する上で重要な一歩となる可能性があります。

この仮説は、古代ギリシャの哲学者プラトンの「イデア論」に着想を得ています。私たちが知覚する言語や画像、音は、物理的な実体である「現実」が落とす影に過ぎません。様々なAIモデルは、これらの異なる「影」から学習することで、その背後にある共通の「現実」、すなわち普遍的な世界モデルを再構築しようとしている、とイゾラ氏は説明します。

この考え方は、AI開発の方向性に大きな示唆を与えます。個別のタスクで高い性能を出すだけでなく、異なる種類のデータを統合的に学習させることで、より汎用的で人間の思考に近いAIが実現できるかもしれません。特定のベンチマークを追い求めるのではなく、知能の「基礎原理」を理解しようとするアプローチです。

仮説を支える重要な技術が「自己教師あり学習」です。人間が用意したラベル付きデータに頼らず、AIがデータそのものの構造から自律的に特徴を学ぶ手法を指します。これにより、膨大なデータから世界の正確な内部表現を効率的に構築できると期待されています。

イゾラ氏は、認知科学からキャリアをスタートさせ、AIの計算論的アプローチに移行した経歴を持ちます。彼の研究室では、短期的な成果よりも「新しく驚くべき真実の発見」を重視する「ハイリスク・ハイリターン」な探求を続けています。この姿勢が、分野の常識を覆す可能性を秘めているのです。

イゾラ氏は汎用人工知能(AGI)の到来はそう遠くないと見ており、「AGI後の未来で世界にどう貢献できるか」を問い始めています。経営者エンジニアにとって、現在のAI技術の先にある知能の本質と、それがもたらす社会変革について思考を巡らせるべき時期に来ているのかもしれません。

MIT、AI電力需要増に対応する新組織設立

AIが招く電力危機

2030年に世界需要が倍増
米国では電力の9%を消費予測
主因はAI利用の爆発的拡大

MITの産学連携フォーラム

研究者と産業界の専門家を結集
持続可能なAI成長の解決策を模索
エネルギー業界全体が参加

多角的な研究アプローチ

低/ゼロカーボン電力の供給
送電網の拡張と運用管理
AI活用による配電・立地の最適化

マサチューセッツ工科大学(MIT)のエネルギーイニシアティブ(MITEI)が9月、AIの急拡大で急増するデータセンター電力需要に対応するため、産学連携の「データセンター・パワー・フォーラム」を設立しました。このフォーラムは、研究者と産業界の専門家を集め、持続可能なデータ駆動型の未来に向けた革新的な電力ソリューションを探求することを目的としています。

AIの利用拡大は、電力インフラに前例のない負荷をかけています。調査機関によれば、世界のデータセンター電力需要は2030年までに倍以上に増加する見通しです。米国だけでも、全電力消費に占めるデータセンターの割合は2023年の4%から、2030年には9%に達すると予測されており、エネルギー業界にとって喫緊の課題となっています。

この課題に対し、MITEIが設立したフォーラムは、AIの持続可能な成長電力インフラの強化という二つの目標を追求します。MITEIのディレクターは「AIと送電網のバリューチェーン全体から利害関係者を集め、非商業的かつ協力的な環境で解決策を議論する場を提供する」と述べ、産学連携の重要性を強調しています。

フォーラムの研究対象は多岐にわたります。具体的には、低炭素・ゼロカーボンのエネルギー供給、送電網の負荷運用と管理、電力市場の設計や規制政策などが含まれます。さらに、省電力プロセッサや効率的なアルゴリズム、データセンターの冷却技術といった、エネルギー効率を高めるための技術開発も重要なテーマです。

MITEIはこれまでも、AIを活用した配電の最適化やデータセンターの立地に関する経済性分析など、関連プロジェクトを多数支援してきました。新設されたフォーラムは、これらの既存研究の知見を統合し、より包括的で実用的な解決策を生み出すためのハブとしての役割を担うことが期待されています。

AI技術の発展は、ビジネスの生産性や競争力を飛躍的に高める可能性を秘めています。しかし、その裏側にあるエネルギー問題から目を背けることはできません。今回のMITの取り組みは、技術革新と持続可能性の両立を目指す上で、重要な一歩となるでしょう。

MIT、AI時代のコードを変える新モデルを提唱

新モデル「コンセプトと同期」

機能を独立した部品「コンセプト」で定義
部品間の連携を「同期」ルールで明示
コードの可読性モジュール性を向上

LLMによる開発を加速

LLMが安全なコードを生成しやすく
予期せぬ副作用のリスクを低減
AIによる自動開発の信頼性を向上

将来の展望

再利用可能な「コンセプトカタログ」の構築
ソフトウェアの信頼性透明性の確立

マサチューセッツ工科大学(MIT)の研究者チームが、AIによるコード生成時代を見据えたソフトウェア開発の新たなモデルを発表しました。この「コンセプトと同期」と呼ばれる手法は、複雑なソフトウェアを理解しやすい部品に分割し、その連携ルールを明確化します。これにより、コードの可読性とモジュール性を高め、大規模言語モデル(LLM)による安全で信頼性の高いコード生成を促進することが期待されます。

現代のソフトウェア開発では、一つの機能が複数の箇所に分散する「機能の断片化」が大きな課題でした。例えばSNSの「共有」機能は、投稿や通知、認証など様々なコードに跨がって実装されています。このため、コードの全体像を把握しにくく、一部分の変更が予期せぬ副作用を生むリスクを抱えていました。

新モデルはこの課題を解決します。まず、共有や「いいね」といった機能を独立した部品「コンセプト」として定義します。そして、コンセプト間の相互作用を「同期」という明確なルールで記述します。これにより、開発者は低レベルな連携コードに煩わされることなく、システム全体の動きを直感的に把握できるようになります。

このアプローチの最大の利点は、AIとの親和性にあります。連携ルールを記述する専用言語はシンプルで、LLMが正確にコードを生成しやすくなっています。これにより、AIアシスタントが副作用のリスクを抑えながら新機能を追加するなど、より安全で自動化されたソフトウェア開発への道が開かれるのです。

研究チームは将来的に、検証済みの部品を集めた「コンセプトカタログ」の構築も視野に入れています。開発者はカタログから部品を選び、組み合わせることで開発効率を飛躍的に高められます。ソフトウェアの意図を透明化するこの手法は、AI時代の開発文化を大きく変える可能性を秘めています。

MITとIBM、次世代AIの信頼・効率・知識基盤を強化

AIの信頼性を高める

LLM回答の不確実性を精密に評価
ナレッジグラフ連携で幻覚を抑制
強化学習データ検索を効率化

計算効率と表現力の向上

Transformer計算コストを削減
線形アテンションで処理を高速化
新方式の位置エンコーディング表現力を向上

視覚データの高度な活用

合成チャートでVLM学習を促進
画像から描画コードを自動生成・改良

マサチューセッツ工科大学(MIT)とIBMの研究者らが、AIの信頼性、効率性、知識に基づいた推論能力を向上させる複数の研究プロジェクトを推進しています。博士課程の学生が中心となり、LLMの回答の不確実性を評価する新手法や、計算コストを削減する次世代アーキテクチャなどを開発。これらの成果は、より実用的で価値の高いAIモデルを様々な分野へ展開することを目的としています。

企業のAI活用における最大の課題は、その回答が信頼できるかという点です。これに対し、研究チームはLLMの回答の不確実性を評価する新たな手法を開発しました。これは評価用モデル(プローブ)自体の信頼性を測り、誤った警告を防ぎます。さらに、外部のナレッジグラフと連携させ、AIの「幻覚」を抑制する強化学習フレームワークも構築しています。

大規模モデルの運用には膨大な計算コストが伴います。特にTransformerモデルは、入力データが長くなるほど計算量が爆発的に増加する課題を抱えていました。研究チームは線形アテンションなどの技術を採用することでこの問題を解決。より少ない計算資源で、より長いシーケンスを高速に処理できる次世代アーキテクチャの開発を進めています。

人間のように視覚情報を深く理解するAIも研究対象です。あるチームは、グラフやチャートを読み解き、それを生成するPythonコードを出力する合成データセット「ChartGen」を開発。これにより、財務・科学レポートの自動分析が期待できます。また、デザイン画像を基に質感を再現するプログラムを自己改良しながら生成するシステムも構築しています。

これらの研究は、それぞれがAIの核心的な課題に取り組んでいます。信頼性の確保、効率性の向上、そしてマルチモーダルな推論能力の強化は、AIが実験段階を終え、現実世界のビジネスや科学の現場で不可欠なツールとなるための重要な布石です。個々の技術革新が連携し、より強力で費用対効果の高いAIシステムの実現を加速させるでしょう。

ロボットの眼が進化、MITが高速3D地図作製AIを開発

AIと古典技術の融合

AIで小さな部分地図を生成
部分地図を結合し全体を再構築
古典的手法で地図の歪みを補正
カメラの事前較正が不要

高速・高精度な応用

数秒で複雑な空間を3D地図化
誤差5cm未満の高い精度を実現
災害救助や倉庫自動化に応用
VR/ARなど拡張現実にも期待

マサチューセッツ工科大学(MIT)の研究チームが、ロボット向けに大規模環境の3D地図を高速かつ高精度に作成する新しいAIシステムを開発しました。このシステムは、最新の機械学習と古典的なコンピュータービジョン技術を融合。災害救助や倉庫の自動化など、ロボットが複雑なタスクを遂行する上での大きな障壁を取り除く画期的な成果として注目されます。

従来、ロボットの自己位置推定と地図作製を同時に行う「SLAM」技術は、課題を抱えていました。古典的な手法は複雑な環境で失敗しやすく、最新の機械学習モデルは一度に扱える画像数に限りがあり、大規模な空間の迅速なマッピングには不向きでした。いずれも、専門家による調整や特殊なカメラが必要となる場合が多くありました。

MITの新システムは、AIを用いて環境を小さな「部分地図」に分割して生成し、それらを古典的な手法で結合するアプローチを採用します。最大の革新は、AIが生成する地図の僅かな歪みを、柔軟な数学的変換を用いて補正する点にあります。これにより、大規模な地図でも矛盾なく正確に再構築することが可能になりました。

この手法の性能は目覚ましく、スマートフォンの動画からでも数秒で複雑な空間の3D地図を生成できます。MITの礼拝堂内部を撮影した実験では、再構築された地図の平均誤差は5cm未満という高い精度を達成しました。特殊なカメラや事前の較正が不要で、すぐに利用できる手軽さも大きな利点です。

この技術は、災害現場での救助ロボットのナビゲーション、倉庫内での自律的な物品管理、さらにはVR/ARといった拡張現実アプリケーションの品質向上にも貢献すると期待されています。研究者は、伝統的な幾何学の知見と最新AIの融合が、技術をよりスケーラブルにする鍵だと強調しています。

MIT、AI実用化を加速する新手法を開発

最適AIモデルを瞬時に選択

膨大なモデル群から最適解を特定
対話形式でアノテーション作業を削減
わずか25例でモデル選択も可能
野生動物の分類などで既に実証済み

高速かつ実行可能な解を保証

AIの速度と従来手法の信頼性を両立
電力網など複雑な最適化問題に対応
実行可能性を100%保証する新手法
従来比で数倍の高速化を達成

マサチューセッツ工科大学(MIT)の研究チームが、実世界の課題解決を加速する2つの画期的なAI手法を発表しました。最適なAIモデルを効率的に選ぶ「CODA」と、複雑な問題を高速かつ確実に解く「FSNet」です。これらの技術は、AI導入のボトルネックを解消し、企業の生産性や収益性向上に直結する可能性を秘めています。

AI活用が進む一方、膨大な公開モデルから自社の課題に最適なものを選ぶ作業は大きな壁でした。有名なリポジトリには190万ものモデルが存在し、その評価だけでプロジェクトが停滞することも。この「モデル選択のジレンマ」が、AI実用化の足かせとなっていました。

MITが開発した「CODA」は、この問題を解決します。対話形式で最も情報価値の高いデータへのラベル付けを促すことで、評価作業を劇的に効率化。研究では、わずか25個のサンプルで最適なモデルを特定できたケースもあります。これにより、迅速かつ的確なモデル選択が可能になります。

一方、電力網管理などの最適化問題では、速度と信頼性の両立が課題です。従来の数学的ソルバーは正確ですが時間がかかり、AI予測は高速でも物理制約を破る「実行不可能な解」を出すリスクを抱えていました。失敗が許されない領域では、AIの導入は困難視されてきたのです。

新手法「FSNet」は、AIの速度と従来手法の信頼性を融合させました。まずAIが最適解を高速に予測し、次にその予測値を基に従来のソルバーが制約条件を100%満たすように解を微調整します。この2段階アプローチにより、従来比で数倍の速度向上と、実行可能性の完全な保証を両立させました。

これらの手法は具体的な成果を上げています。「CODA」は野生動物の画像分類で有効性を実証し、「FSNet」は電力網最適化で従来手法を凌駕する性能を示しました。応用範囲は生態系保護から金融、製造業まで、あらゆる産業の意思決定を変革する可能性を秘めています。

「CODA」と「FSNet」は、AIを単なる予測ツールから、現実世界の複雑なオペレーションを支える信頼性の高いパートナーへと引き上げるものです。AI導入の障壁を下げ、その価値を最大化するこれらの研究は、企業の競争力を左右する重要な鍵となるでしょう。今後のビジネス実装への展開が期待されます。

MIT、学校のAI活用へ指南書 試行錯誤を促す

MITの新たな手引書

教育者向けAI導入の指針
100人超の教員・生徒が協力
拙速な判断を避ける謙虚な姿勢
思考と議論の活性化が目的

現場が直面する課題

学問的誠実性の確保
データプライバシーの保護
生徒の思考力低下への懸念
過去の技術導入の失敗事例

マサチューセッツ工科大学(MIT)の研究室が、生成AIの急速な普及に直面する米国K-12(幼稚園から高校まで)教育機関向けに、AI導入の指針となるガイドブックを公開しました。この手引書は、教育者がAIを授業に統合する際の複雑な課題に対応し、拙速な結論を避け、建設的な議論を促すことを目的としています。

ガイドブック「学校におけるAIへのガイド」は、100人以上の教員や生徒からの意見を基に作成されました。研究を主導したジャスティン・ライク準教授は、AI導入において「謙虚な精神」を提唱しており、本書が唯一の正解を示すものではないと強調しています。

教育現場では、AIの利用に伴う学問的誠実性の確保やデータプライバシーの維持といった課題が山積しています。特に、生徒がAIを使って「生産的な思考」を省略し、本来の学習機会が失われることへの懸念が強く示されています。

ライク氏は、過去の教育テクノロジー導入の失敗を教訓にすべきだと指摘します。例えば、スマートボードは学習効果が証明されず、ウェブサイトの信頼性に関する初期の指導は誤っていたことが判明しました。AIに関しても性急なルール作りを避けるべきだと警鐘を鳴らします。

AIが過去の技術と異なるのは、学校の正式な導入プロセスを経ず、「子供たちのスマートフォンに突然現れた」点です。このため教育モデルは急速な変革を迫られており、現場の教師の不安は従来技術の比ではないとされています。

研究室ではガイドブックに加え、ポッドキャストシリーズも制作。学術出版の長いサイクルを待たずに、現場の課題に即応した情報共有を目指しています。これにより、教育者間で解決策を迅速に共有・評価することが可能になります。

最終的な目標は「最初」の答えではなく「正しい」答えを見つけることです。ライク氏は、教師や生徒、保護者など多様な関係者が協力し、時間をかけて解決策を練り上げる重要性を訴えています。「AIが何であるか、まだ誰も分かっていないのです」と。

Googleの教育AI、米1000大学で1000万人利用

教育現場でAI活用が加速

米国1000以上の高等教育機関が導入
利用学生数は1000万人を突破
MITやブラウン大学など名門校も採用
教育機関向けにデータ保護されたAIを提供

学習から就活まで支援

小テストや学習ガイドの個別生成
論文執筆のための情報要約・分析
証明写真や部屋の画像生成機能

Googleは2025年10月28日、同社の生成AI「Gemini for Education」が、米国の1000以上の高等教育機関で導入され、1000万人以上の学生に利用されていると発表しました。学習支援から就職活動まで幅広く活用されており、教育現場におけるAIの浸透が急速に進んでいます。

導入機関にはマサチューセッツ工科大学(MIT)やブラウン大学といった名門校も含まれます。Googleは、教育機関向けにデータ保護を強化したAIツールを無償で提供しており、これが急速な普及を後押ししていると考えられます。

学生教員は、Geminiを用いて試験対策用の小テストを作成したり、研究プロジェクトで必要な情報を要約・分析したりしています。また、寮の部屋のデザイン案や就職活動用の証明写真を生成するなど、学業以外でのクリエイティブな活用も広がっています。

今後は、簡単な指示(プロンプト)だけでプレゼンテーション資料を自動で作成し、Googleスライドにエクスポートする機能などが追加される予定です。これにより、学生教員生産性はさらに向上すると期待されます。

Gemini for Education」と研究ノートツール「NotebookLM」は、教育機関が利用する生産性向上スイートの種類を問わず、無償で導入可能です。GoogleはAI人材育成も視野に入れ、教育分野でのエコシステム構築を急いでいます。

中国発MiniMax-M2、オープンソースLLMの新王者

主要指標でOSSの首位

第三者機関の総合指標で1位
独自LLMに迫るエージェント性能
コーディングベンチでも高スコア

企業導入を促す高効率設計

商用利用可のMITライセンス
専門家混合(MoE)で低コスト
少ないGPU運用可能
思考プロセスが追跡可能

中国のAIスタートアップMiniMaxが27日、最新の大規模言語モデル(LLM)「MiniMax-M2」を公開しました。第三者機関の評価でオープンソースLLMの首位に立ち、特に自律的に外部ツールを操作する「エージェント性能」で独自モデルに匹敵する能力を示します。商用利用可能なライセンスと高い電力効率を両立し、企業のAI活用を加速させるモデルとして注目されます。

第三者評価機関Artificial Analysisの総合指標で、MiniMax-M2オープンソースLLMとして世界1位を獲得しました。特に、自律的な計画・実行能力を測るエージェント関連のベンチマークでは、GPT-5Claude Sonnet 4.5といった最先端の独自モデルと肩を並べるスコアを記録。コーディングやタスク実行能力でも高い性能が確認されています。

M2の最大の特長は、企業での導入しやすさです。専門家の知識を組み合わせる「MoE」アーキテクチャを採用し、総パラメータ2300億に対し、有効パラメータを100億に抑制。これにより、わずか4基のNVIDIA H100 GPUでの運用を可能にし、インフラコストを大幅に削減します。さらに、商用利用を認めるMITライセンスは、企業が独自に改良・展開する際の障壁を取り払います。

高いエージェント性能を支えるのが、独自の「インターリーブ思考」形式です。モデルの思考プロセスがタグで明示されるため、論理の追跡と検証が容易になります。これは、複雑なワークフローを自動化する上で極めて重要な機能です。開発者は構造化された形式で外部ツールやAPIを連携させ、M2を中核とした高度な自律エージェントシステムを構築できます。

M2の登場は、オープンソースAI開発における中国勢の台頭を象徴しています。DeepSeekやアリババのQwenに続き、MiniMaxもまた、単なるモデルサイズではなく、実用的なエージェント能力やコスト効率を重視する潮流を加速させています。監査や自社でのチューニングが可能なオープンモデルの選択肢が広がることは、企業のAI戦略に大きな影響を与えるでしょう。

脳を模倣した省エネAI、MITが新技術

脳に学ぶAIの省エネ化

AIの膨大な電力消費が課題
脳の情報処理・記憶を模倣
データ移動をなくし効率化
持続可能なAI実現への道

新デバイス「イオンシナプス」

信号強度を調整するシナプスの役割
イオンで電気抵抗を精密制御
タングステン酸化物を利用
半導体技術との互換性も視野

マサチューセッツ工科大学(MIT)の研究チームが、人工知能(AI)の膨大なエネルギー消費問題を解決する新技術を開発しています。人間の脳の情報処理メカニズムを模倣した「ニューロモーフィックコンピューティング」に基づき、消費電力を大幅に削減するデバイスを研究。この成果は、AIの持続可能性を高め、計算コストという産業界の大きな課題に光明を投じるものとして注目されます。

なぜ脳の仕組みが重要なのでしょうか。現在のコンピュータは、情報を処理する場所と記憶する場所が分かれているため、データのやり取りに多くのエネルギーを消費します。一方、人間の脳ではニューロン間の接続部「シナプス」で情報処理と記憶が同時に行われます。この圧倒的な効率性を再現することが、省エネAI実現の鍵となります。

研究の中心は「電気化学的イオンシナプス」と呼ばれる微小デバイスです。研究チームは、タングステン酸化物にマグネシウムイオンを出し入れすることで、電気の通りやすさ(抵抗)を精密に制御。これにより、脳のシナプスが信号の強弱を調整するように、デバイスの特性を自在に「チューニング」できるといいます。

この脳型コンピューティング技術は、AIの運用コストを劇的に下げる可能性を秘めています。特に大規模言語モデルの学習や運用にかかる電力は、企業の収益性を圧迫する要因となりつつあります。MITの研究は、エネルギーという制約からAIを解放し、より広範な社会実装を後押しする画期的な一歩と言えるでしょう。

大学中退者発AIノート、500万人獲得の快進撃

驚異的な成長指標

ユーザー数500万人を突破
新規ユーザーが毎日2万人増加
8桁ドルの年間経常収益を達成

成功を支える戦略

学生リアルな課題から着想
口コミとSNSによるバイラル成長
早期の資金調達に頼らない黒字経営

多様な活用シーン

講義からクイズまで自動生成
専門家による報告書要約にも活用

20歳の大学中退者2人が創業したAIノートアプリ「Turbo AI」が、ローンチから1年足らずでユーザー数500万人、年間経常収益8桁ドル(数千万ドル規模)を達成し、急成長を遂げています。もともとは創業者が自身の「講義を聞きながらメモが取れない」という課題を解決するために開発。学生間の口コミで広がり、現在では毎日2万人の新規ユーザーを獲得する人気サービスとなっています。

Turbo AIの強みは、単なる文字起こしに留まらないインタラクティブ性にあります。講義の録音はもちろん、PDFやYouTube動画からもノートやフラッシュカード、クイズを自動生成。内蔵のチャットアシスタントが専門用語を解説するなど、能動的な学習を支援する機能が学生の心を掴みました。

この成功の裏には、創業者らの巧みな戦略があります。友人間の共有から始まり、デューク大学やノースウェスタン大学、さらにはハーバード大学やMITといった名門校へ口コミで自然に拡大。創業者の1人であるArora氏が持つ、SNSを活用したバイラル成長のノウハウが、この急拡大を後押ししたと言えるでしょう。

ユーザー層は学生だけではありません。「Turbolearn」から「Turbo AI」へとサービス名を変更したことにも表れているように、現在ではコンサルタントや弁護士、医師などの専門職にも利用が拡大しています。報告書をアップロードして要約を作成したり、通勤中に聞くためのポッドキャストに変換したりと、ビジネスシーンでの活用も進んでいます。

多くのAIスタートアップが大規模な資金調達を行う中、同社は堅実な経営を貫いています。これまでの資金調達は75万ドルのみ。にもかかわらず、創業以来キャッシュフローは黒字を維持し、利益を出し続けています。ロサンゼルスに拠点を置く15人の少数精鋭チームで、顧客のニーズに密着した開発を進めています。

競合がひしめく市場で、Turbo AIは手動のメモツールと完全自動のツールとの中間的な立ち位置で差別化を図ります。AIに任せるだけでなく、ユーザーがAIと共同でノートを作成できる点が特徴です。今後も学生の価格感度を考慮した料金体系を模索しつつ、さらなる成長を目指しています。

MITのAI研究者ら、米国医学アカデミー会員に選出

米国医学界の最高栄誉

MIT関係者5名が選出
AIと免疫学の功績を評価
医療分野の最高栄誉の一つ
2025年の新会員は計100名

注目された2名の教授

D. カタビ教授
AIによる非侵襲遠隔モニタリング
F. バティスタ教授
B細胞研究とワクチン開発に貢献

マサチューセッツ工科大学(MIT)は10月22日、同大学の教員2名と卒業生3名の計5名が、米国医学アカデミー(NAM)の新会員に選出されたと発表しました。NAM会員への選出は健康と医学の分野で最高の栄誉の一つとされ、卓越した専門的業績と貢献が認められた形です。特にAIを活用した医療技術や免疫学研究での功績が高く評価されました。

選出されたディナ・カタビ教授は、AIと無線信号を用いて身体に触れることなく健康状態を遠隔監視する画期的なデジタルヘルス技術を開発しました。この技術はパーキンソン病の進行検知などに応用され、臨床試験における客観的で高感度なデータ測定を可能にした点が評価されています。

同じく選出されたファクンド・バティスタ教授は、抗体を産生するB細胞の生物学を解明し、免疫システムが感染症にどう反応するかについての理解を深めました。その研究は、HIV、マラリア、インフルエンザといった世界的に重要な疾患に対するワクチンや治療法の開発を大きく前進させています。

このほか、MITの卒業生であるクリストファー・S・チェン氏、マイケル・E・マセニー氏、レベッカ・R・リチャーズ-コータム氏の3名も会員に選ばれました。いずれもハーバードMIT健康科学技術プログラムの出身者で、各分野での顕著な貢献が認められています。

米国医学アカデミーは1970年に設立され、健康、科学、医療に関する重要課題に取り組んでいます。NAMのビクター・ザウ会長は「彼らの卓越した功績は、我々が直面する最も差し迫った健康課題に取り組む能力を決定的に強化するだろう」と、新会員への期待を表明しました。

元Cohere幹部、巨大AI競争から離脱し新会社

巨大化路線の限界

計算資源投入による性能向上の鈍化
専門家からも上がる懐疑論
巨額のコストとエネルギー消費

新会社は「適応」で勝負

新会社Adaption Labs設立
実世界から学ぶAIシステム
継続的かつ効率的な自己改善

AI開発の未来像

高価な再調整からの脱却
AIの民主化と多様化の可能性

AIユニコーン企業Cohereの元AI研究責任者サラ・フッカー氏が、新会社「Adaption Labs」を設立しました。同社は、計算資源を大量に投下する巨大AIモデル開発競争に異議を唱え、実世界の経験から継続的に学習する、より効率的な「適応型AI」の開発を目指します。この動きは、業界で主流となっているスケーリング一辺倒の方針に一石を投じるものとして注目されています。

フッカー氏は、現在のAI開発を「魅力的だが退屈」と指摘。計算能力を増強するだけでは、世界と対話できる真の知能は生まれないとの考えです。性能向上のためのコストが非効率なレベルに達し、限界が近いと警鐘を鳴らしています。

Adaption Labsが目指すのは、導入後もリアルタイムで間違いから学ぶAIです。現在のAIは本番環境での自己改善が難しく、高額な再調整が必須でした。同社はAIが環境から効率的に学習できることを証明し、この課題を解決します。具体的な技術は非公開です。

業界全体でも、スケーリング信仰は揺らぎ始めています。MITの研究では巨大AIモデルの「収穫逓減」が指摘され、著名研究者からもLLMの限界を問う声が上がっています。AI開発は新たなブレークスルーを模索する時期に差し掛かっているのかもしれません。

Adaption Labsは、最大4000万ドルのシードラウンドを完了したと報じられています。フッカー氏はCohere在籍時、特定用途向けの小型モデルで高い性能を出す実績があります。サンフランシスコを拠点に、世界中から人材を集める方針です。

フッカー氏の挑戦が成功すれば、AI開発の主導権が巨大企業から分散するかもしれません。誰もがAIを安価に、そして継続的に賢くできる時代の到来です。Adaption Labsは、AIが誰のために存在するのかという根源的な問いを投げかけています。

AIで思考力は低下するか?最新研究が示す光と影

AI利用の認知的影響

生成AIへの思考の外部委託
認知努力の自己申告による減少
批判的思考力への懸念
新技術登場時の歴史的な懸念

研究が示す具体的なリスク

知識労働者の自信への影響
医師の診断能力低下の事例
科学的知見はまだ初期段階
継続的な影響の調査が必要

生成AIの急速な普及に伴い、その利用が人間の認知能力、特に批判的思考に与える影響について懸念が高まっています。米マサチューセッツ工科大学(MIT)やマイクロソフトの最新研究では、知識労働者がAIに頼ることで認知的な努力を減らす傾向が報告されました。これは生産性向上の一方で、思考力低下という新たなリスクを示唆しており、ビジネスリーダーや技術者にとって見過ごせない課題となっています。

新技術の登場は、常に人間の能力を衰えさせるという不安を伴ってきました。かつて新聞やテレビが思考力を奪うと危惧されたように、AIに対しても同様の「モラルパニック」ではないかという見方もあります。しかし、今回のAIがもたらす変化は、単なる情報伝達手段の変革とは質が異なる可能性も指摘されており、慎重な検証が求められます。

マイクロソフトなどの研究が示すのは、AIを頻繁に利用する人々が、自ら深く考えることを意識的に避けるようになる可能性です。タスクをAIに「丸投げ」することで、短期的な効率は上がるかもしれません。しかしその代償として、問題の本質を見抜く力や、多角的な視点から判断する批判的思考力が鈍るリスクが懸念されています。

この現象は、特定の専門分野でも報告されています。例えば、AIによる画像診断支援システムに過度に依存した結果、一部の医師のがん検出能力がかえって低下したという事例もあります。これは、AIの回答を鵜呑みにし、自らの専門知識や直感を働かせなくなる「自動化バイアス」の一例と言えるでしょう。

もちろん、AIが人間の知性を拡張する強力なツールであることも事実です。重要なのは、AIを思考の「代替」ではなく、思考を深めるための「パートナー」として位置づけることです。経営者やリーダーは、AI導入による生産性向上と、従業員の思考力維持・向上のバランスをどう取るかという、新たな経営課題に直面しています。

この分野の研究はまだ始まったばかりであり、長期的な影響については未知数です。AIとの共存が常識となる社会で、私たちはどのように自らの思考力を鍛え、維持していくべきか。技術の進化と並行して、人間側のリテラシー教育や利用ガイドラインの策定が急務となるでしょう。

MITとIBM、小型・効率AIで産業応用を加速

産学連携が生む圧倒的成果

特許54件、引用12万件超
産業ユースケース50件以上を創出
医療や化学など多分野へ応用

「巨大」から「小型・効率」へ

巨大モデルからタスク特化型へ転換
性能を維持しモデルを小型化
エッジデバイスでの高速処理実現

少ないデータで賢く学習

自己修正で推論精度を高める新手法
PoCで終わらせない実用化を推進

マサチューセッツ工科大学(MIT)とIBMが共同で運営する「MIT-IBM Watson AI Lab」は、AI開発の新たな方向性を示しています。設立8周年を迎えた同ラボは、巨大な基盤モデルから、より小さく効率的でタスクに特化したモデルの開発に注力。研究と実用化のギャップを埋め、産業界でのAI活用を加速させることを目指します。これは、AIプロジェクトの多くが概念実証(PoC)で頓挫する現状への明確な回答と言えるでしょう。

この産学連携は目覚ましい成果を上げています。これまでに特許54件を出願し、論文の引用数は12万8000件を超えました。さらに、ヘルスケアや金融、化学など多岐にわたる分野で50件以上の産業ユースケースを創出。AI画像技術によるステント留置の改善や、計算コストの大幅な削減など、具体的なイノベーションを生み出し続けています。

なぜ今、「小型・効率化」が重要なのでしょうか。調査会社ガートナーによると、生成AIプロジェクトの少なくとも30%が2025年末までに概念実証(PoC)の段階で中止されると予測されています。多くの企業がAIへの期待を抱きつつも、価値ある成果に繋げられていないのです。同ラボは、この研究と実用の間の「死の谷」を埋める役割を担っています。

小型化の鍵を握るのが、`once-for-all`や`AWQ`といった革新的な技術です。これらの手法は、モデルのアーキテクチャを最適化し、性能を維持したままサイズを圧縮します。これにより、スマートフォンなどのエッジデバイス上でもAIを高速に実行できるようになります。遅延を減らし、リアルタイムでの応用範囲を大きく広げる可能性を秘めています。

さらに、少ないデータで賢く学習する技術も進化しています。例えば`COAT`(Chain-of-Action-Thought)と呼ばれる手法は、AIが自らの推論プロセスを反復的に自己修正することで、より正確な答えを導き出します。これは、限られた計算資源とデータで、現実世界の複雑な課題を解決するための重要なアプローチです。

これらの研究成果は、IBMのプラットフォーム`watsonx`などを通じて実用化されています。一例が、コンパクトながら高精度な文書理解能力を持つ`Granite Vision`モデルです。企業が保有する膨大な文書から、信頼性の高い情報を抽出し、要約するニーズに応えます。

MIT-IBM Watson AI Labが目指すのは「有用で効率的な知能」の創出です。巨大モデルの開発競争から一歩進み、目的に合わせて最適化されたAIこそが、真の経済的・社会的価値を生み出すと彼らは考えています。この産学連携の取り組みは、AIの実用化を目指す全ての企業にとって、重要な指針となるでしょう。

AI PCが再定義する生産性、鍵は「創造性」

AI PCがもたらす価値

ローカルAI処理による高速化
機密データを保護するセキュリティ
オフラインでも作業可能
低遅延と省エネルギーの実現

創造性が生む事業成果

市場投入までの時間短縮
外部委託費の削減
顧客エンゲージメントの向上
従業員の満足度と定着率向上

AI PCの登場が、ビジネスにおける「生産性」の定義を根底から変えようとしています。マサチューセッツ工科大学(MIT)の研究で生成AIが人間の創造性を高めることが示される中、NPU(Neural Processing Unit)を搭載した次世代PCがその能力を最大限に引き出します。デバイス上でAI処理を完結させることで、低遅延、高セキュリティ、省エネを実現し、単なる効率化ツールを超えた価値を提供し始めています。

企業のIT意思決定者の45%が、すでにAI PCを創造的な業務支援に活用しています。しかし、一般の知識労働者における同目的での利用率は29%にとどまり、組織内で「クリエイティブ格差」が生じているのが現状です。この格差を埋めることが、AI PCのポテンシャルを全社的に引き出す鍵となります。

AI PCは、従業員が創造的な作業に集中できる環境を整えます。専用のNPUがAI関連の負荷を担うため、ユーザーは思考を中断されることなく、アイデア創出に没頭できます。これにより、バッテリー寿命が延び、待ち時間が減少。デザイン動画制作、資料作成など、あらゆる業務でリアルタイムの試行錯誤が可能になります。

この創造性の向上は、具体的な事業成果に直結します。マーケティング部門では、数週間かかっていたキャンペーン素材を数時間で生成。技術部門では、設計や試作品開発のサイクルを大幅に短縮しています。営業担当者は、オフラインの顧客先でもパーソナライズされた提案書を即座に作成でき、案件化のスピードを高めています。

最終的に、AI PCは従業員の働きがいをも向上させます。HPの調査では、従業員が仕事に健全な関係を築く上で最も重要な要素は「充実感」であることが示されています。単なるタスク処理ではなく、創造性を発揮できるツールを与えることは、生産性、満足度、定着率の向上につながるのです。

CIO(最高情報責任者)にとって、AI PCの導入は単なる機器の高速化ではありません。その真価は、従業員の創造性を解放し、新たなアイデアや協業、競争力を生み出す企業文化を醸成することにあります。AI PCをいかに活用し、組織全体の創造性を高めるかが、今後の成長を左右するでしょう。

MIT発、服を自在に組み替えるサステナブル設計術

服をモジュール化する新発想

デザイン構成要素に分解
描画ツールで直感的に設計
3Dモデルで着用時をシミュレーション

サステナブルな未来の服

ズボンをドレスに自在に組み替え
体型変化やトレンドに対応
年間9200万トンの繊維廃棄削減に貢献

誰でも使えるデザインツール

初心者でも30分で試作品
スナップやベルクロで簡単に接合

マサチューセッツ工科大学(MIT)とアドビの研究チームが、衣服を自在に組み替えられる革新的なデザインソフトウェア「Refashion」を発表しました。このツールは、デザインを小さなモジュールに分解し、ズボンをドレスに変えるといった再構成を可能にします。ファッション業界が抱える年間9200万トンもの繊維廃棄物問題に、テクノロジーで挑む画期的な試みです。

「Refashion」の最大の特徴は、デザインのモジュール化です。ユーザーは専用の描画ツールでパーツを描き、それらをパズルのように組み合わせるだけで設計図が完成します。テンプレートも用意されており、Tシャツやパンツなどの基本的なアイテムを元に、直感的なカスタマイズが可能です。

このシステムでは、プリーツやダーツといった専門的なデザイン技法も簡単に取り入れられます。これにより、体にフィットするシャツや、ふんわりとしたスカートなど、デザインの幅が大きく広がります。単なる機能性だけでなく、創造性を刺激するツールとしての側面も持ち合わせています。

パーツの接合には、縫製だけでなく金属スナップやベルクロといった再利用可能な方法を推奨しています。これにより、誰でも簡単にパーツの付け外しや交換ができます。ダメージを受けた部分だけを修理したり、気分に合わせてスタイルを変えたりすることが、手軽に行えるようになります。

デザインした衣服は、2Dのマネキン上でレイアウトを確認後、様々な体型の3Dモデルで着用シミュレーションが可能です。これにより、実際に制作する前にフィット感や見た目を正確に把握できます。初心者でもわずか30分で試作品を完成させられる手軽さも実証されています。

この取り組みは、服のライフサイクルを根本から変える可能性を秘めています。トレンドの移り変わりや体型の変化に合わせて服を買い替えるのではなく、手持ちの服を再構成する文化を創造します。サステナビリティが経営の重要課題となる中、廃棄を前提としない新しいものづくりの形を示しています。

チームは今後、より丈夫な生地への対応や曲線パネルなどの新機能追加、さらには古着を「リミックス」する機能も検討しています。コンピューター支援設計が持続可能なファッション業界の実現を後押しする、先進的な事例として注目されます。

AIが特定のモノを識別、MITが新学習法を開発

生成AIの課題

一般的な物体の認識は得意
特定の「うちの子」の識別は困難

MITの新手法

動画データで文脈から学習
オブジェクトに偽名を与え推論を強制
既存モデルの汎用能力は維持

成果と将来性

物体特定精度が最大21%向上
ロボット工学や支援技術に応用
大規模モデルほど高い効果

マサチューセッツ工科大学(MIT)の研究チームが、生成AIが特定の「個人化された物体」を正確に識別する新しい学習手法を開発しました。ビデオ映像の連続フレームから文脈を学習させ、物体の特定精度を最大21%向上させることに成功。既存AIの汎用能力を損なうことなく、特定のペットや持ち物の追跡、さらには視覚障害者向け支援技術など、幅広い分野への応用が期待されます。

GPT-5のような最新の視覚言語モデル(VLM)は、「犬」のような一般的な物体は高精度で認識できます。しかし、多くの犬の中から特定の飼い犬「ポチ」だけを見つけ出すような、個体を識別するタスクは苦手としていました。これは、AIが一般的な知識に頼りがちで、提示された文脈から個別の特徴を捉える能力が不足していたためです。

この課題を克服するため、研究チームは新しいデータセットを構築しました。同じ物体が様々な状況で映っているビデオ追跡データを活用。これにより、AIは単一の画像ではなく、連続した文脈の中から対象物を一貫して特定する能力を学びます。これは、人間が状況から物事を判断するプロセスに似たアプローチです。

さらに研究チームは、AIが既存知識に頼って「ずる」をするのを防ぐための工夫を凝らしました。例えば、トラの映像を学習させる際に「トラ」というラベルを使わず、「チャーリー」といった偽名を割り当てました。これにより、AIは名前から推測できなくなり、純粋に映像の文脈情報だけに集中して個体を識別せざるを得なくなります。

この手法で再学習させたモデルは、個人化された物体の位置特定タスクにおいて、最先端システムを上回る性能を示しました。精度は平均で約12%、偽名を用いたデータセットでは最大21%も向上。特に、モデルの規模が大きくなるほど性能向上の幅も広がる傾向が確認されており、今後のAI開発に大きな影響を与えそうです。

この技術は、実社会の様々な場面で役立つ可能性があります。例えば、子どもがなくしやすい持ち物を追跡するシステムや、生態系調査で特定の動物を監視するツール、あるいは視覚障害者が室内で特定の物を見つけるのを助ける支援技術などです。AIがより人間のように文脈を理解する、重要な一歩と言えるでしょう。

AI巨大化は限界か、MITが収益逓減を指摘

MITが示す未来予測

大規模モデルの性能向上の鈍化
小規模モデルが効率化で台頭
今後5-10年で性能差は縮小

過熱するインフラ投資

OpenAIなどによる巨額の投資
専門家が指摘するバブルリスク
GPUの急速な価値下落リスク

今後の開発戦略

スケール一辺倒からの転換点
アルゴリズム改良の重要性

マサチューセッツ工科大学(MIT)の研究チームが、AI業界の主流であるモデルの巨大化戦略が近く「収益逓減の壁」に直面する可能性を指摘する研究を発表しました。計算資源の拡大による性能向上と、アルゴリズムの効率化による性能向上を比較分析したもので、現在の巨大なインフラ投資ブームに一石を投じる内容となっています。

研究によると、今後5年から10年の間に、アルゴリズムの効率化が進むことで、より少ない計算資源で動く小規模なモデルが、巨大モデルの性能に追いつき始めると予測されています。特に、推論能力を重視する最新モデルにおいて、この傾向は顕著になると分析。単純な規模拡大だけでは、競争優位性を保つのが難しくなるかもしれません。

この予測は、OpenAIなどが進める数千億ドル規模のAIインフラ投資とは対照的です。業界は計算能力のさらなる増強を目指していますが、専門家からはその持続可能性を疑問視する声も上がっています。特に、投資の大部分を占めるGPUは技術の進歩が速く、資産価値が急速に下落するリスクを抱えています。

もちろん、巨大テック企業の投資には、生成AIツールの需要爆発を見越した先行投資や、特定の半導体メーカーへの依存度を下げたいといった戦略的な狙いもあります。しかし、MITの研究は、業界がスケール一辺倒の戦略を見直す時期に来ていることを示唆しています。

これからのAI開発では、計算資源の拡大と並行して、より効率的なアルゴリズムを開発することの重要性が増すでしょう。ハードウェアへの投資だけでなく、ソフトウェアやアルゴリズムの革新にも目を向けることが、長期的なイノベーションの鍵を握ることになりそうです。

AI音楽教育の母、バンバーガーMIT名誉教授逝去 100歳

AIと音楽教育の融合

1980年代にAIラボで研究
独自の音楽学習言語を開発
人間の音楽学習プロセスを解明

先駆者としての歩み

MITで初の女性テニュア教員
著名音楽家との共同研究
90代まで続けた教育と研究

後進への多大な影響

現役教授陣が語る多大な貢献
多くの学生を指導しキャリア支援

マサチューセッツ工科大学(MIT)は、音楽教育とテクノロジーの融合を切り拓いたジャンヌ・シャピロ・バンバーガー名誉教授が、2024年12月12日にカリフォルニア州バークレーの自宅で100歳で逝去したと発表しました。バンバーガー氏は、MITのAIラボで研究を行い、コンピュータ言語を用いて音楽学習の方法に革新をもたらしたことで知られています。その功績は現代のAIと教育の分野にも大きな示唆を与えています。

バンバーガー氏の最大の功績は、テクノロジーを音楽教育に応用した点にあります。1980年代には、当時最先端であったMITの人工知能(AI)ラボに所属し、子供たちが音楽を直感的に学べる独自のコンピュータ言語「MusicLogo」や「Impromptu」を開発。これは、人間がどのように音楽を学び、理解するのかという根源的な問いを探求する彼女の生涯の研究の中核をなすものでした。

彼女は学問の世界における真のパイオニアでした。MIT音楽・演劇芸術部門で初めてテニュア(終身在職権)を獲得した女性教員となり、後進の女性研究者に道を拓きました。また、その活動は学内に留まらず、ジャズ界の巨匠ハービー・ハンコック氏と共同研究を行うなど、分野の垣根を越えて音楽と知性の可能性を追求し続けました。

彼女の情熱と探究心は、多くの同僚や学生に深い影響を与えました。同僚のエヴァン・ジポリン教授は「彼女がいなければ今日のMIT音楽部門はなかった」と語ります。また、教え子の一人で現在はキングス・カレッジ・ロンドンの教授を務めるエレイン・チュー氏は「彼女は自分で考える力、主体性を育むよう導いてくれた」と振り返っており、その教育者としての姿勢が高く評価されています。

2002年にMITの名誉教授となった後も、カリフォルニア大学バークレー校で教鞭を執るなど、90代まで精力的に活動を続けました。彼女が長年提唱してきた新しい音楽棟の建設や大学院プログラムの設立は、近年ついに実現。バンバーガー氏が遺した先進的なビジョンは、今もなおMITで息づき、未来の音楽とテクノロジーの発展を支えています。

MIT、AI音楽でメンタルヘルスに新境地

AI・神経科学・音楽の融合

非薬物的なメンタルヘルスツール開発
音楽が心身に与える影響を解明
音楽薬理学「ファーマミュージコロジー」
AI生成音楽の感情的効果を検証

実社会への応用と連携

カーネギーホールなどと連携
大規模ライブでの感情への影響分析
企業とAI音楽の臨床応用を研究
周産期ケアへの子守唄の効果を評価

マサチューセッツ工科大学(MIT)の研究者が、AI、神経科学、音楽を融合させ、メンタルヘルス向上を目指す革新的な研究を進めています。自身の音楽家としての経験から着想を得て、音楽が心身に与える強力な影響を科学的に解明。非薬物的な治療法として、AIを活用した音楽ツールの臨床応用や実用化に挑んでいます。

研究の中心人物は、計算論的神経科学者で音楽家でもあるキマヤ・レカムワサム氏です。同氏は、音楽が不安などに与える生理的・心理的影響を研究する「ファーマミュージコロジー」という概念を提唱。自身の経験から音楽が自己表現や精神的安定にいかに重要かを実感し、その科学的根拠の解明を志しました。

研究の鍵を握るのがAI技術の活用です。レカムワサム氏は、AIが生成した音楽と人間が作曲した音楽が、人々の感情にどのような違いをもたらすかを比較分析しています。これにより、人間の創造性を尊重しつつ、個人の感情に寄り添う音楽を生成・推薦する倫理的なシステムの構築を目指します。

研究は学内にとどまりません。カーネギーホールと協力し、音楽がウェルビーイングに与える影響を評価するコンサートを実施。また、企業と連携し、スタジアム規模のライブ音楽体験が観客の感情に与える効果を、インタラクティブ照明などの技術を用いて測定するプロジェクトも進行中です。

この研究は、音楽を単なる娯楽から、科学的根拠に基づく「処方箋」へと昇華させる可能性を秘めています。将来的には、心理療法や薬物療法と組み合わせた新たな治療介入としての確立が期待されます。AIと音楽の融合が、私たちの心の健康を支える未来は、そう遠くないのかもしれません。

ノーコードで生命科学のデータ解析を高速化

開発の背景

生物学データの指数関数的な増大
データ解析が研究のボトルネック
生物学者と技術者の専門性の乖離

プラットフォームの特長

ノーコードでの複雑なデータ解析
クラウドベースのテンプレート提供
最新AIツールを手軽に利用可能

導入による効果

研究開発サイクルを10倍以上高速化
創薬や臨床研究の意思決定を支援

マサチューセッツ工科大学(MIT)発のスタートアップ「Watershed Bio」が、プログラミング不要で複雑な生命科学データを解析できるクラウド基盤を開発しました。ゲノム解析などが身近になる一方、膨大なデータを扱える専門家不足が課題でした。同社のノーコードプラットフォームは、生物学者が自らデータを扱い、新薬開発などの研究を加速させることを目指します。

近年、診断・シーケンシング技術のコストが劇的に低下し、研究現場では前例のない量の生物学データが蓄積されています。しかし、そのデータを新薬開発などに活かすには、ソフトウェア技術者の協力が不可欠で、研究のボトルネックとなっていました。

Watershedのプラットフォームは、専門家でなくとも直感的に操作できる点が強みです。ゲノムやタンパク質構造解析など、一般的なデータ種別に対応したワークフローのテンプレートを提供。これにより、研究者はコーディング作業から解放され、本来の科学的探究に集中できます。

さらに、AlphaFoldやGeneformerといった最新のAIツールもプラットフォーム上で手軽に利用できます。科学誌で発表された最先端の解析手法が即座にテンプレートとして追加されるため、研究者は常に業界の最前線で実験を進めることが可能です。

創業者のジョナサン・ワン氏は、かつて金融業界で同様の課題に直面しました。研究者とエンジニアの連携非効率を解決した経験が、この事業の着想に繋がっています。「生物学者をソフトウェアエンジニアにする必要はない」と同氏は語ります。

同社の目標は、科学的発見の速度を10倍から20倍に引き上げることです。すでに大手製薬会社から小規模な研究チームまで、学術界と産業界の双方で導入が進んでいます。研究の次のステップを迅速に判断するための、強力なツールとなっています。

AIが仮想分光計に、材料品質管理を革新

AIが仮想分光計に

MITが開発した新AIツール
赤外線データからX線データを生成
物理スキャンと99%の精度で一致

時間とコストを大幅削減

分析時間を数日から1分未満へ短縮
高価な複数機器が不要に
単一の安価な装置で多角分析

幅広い産業への応用

半導体やバッテリーの製造
製薬、農業、防衛分野にも展開

マサチューセッツ工科大学(MIT)の研究チームが、材料の品質管理を革新する生成AI「SpectroGen」を開発しました。仮想の分光計として機能し、1種類のスキャンデータから別種のデータを99%の精度で生成。製造業の品質管理劇的に高速化・低コスト化する可能性を秘めています。

SpectroGenは、例えば安価な赤外線カメラでスキャンした材料のスペクトルデータを入力するだけで、高価な装置が必要なX線回折のスペクトルデータをAIが自動生成します。これにより、企業は複数の高価な分析機器を揃えることなく、単一の装置で多角的な品質評価が可能になります。

従来、材料の特性を多角的に評価するには、それぞれ専用の高価な装置で測定する必要があり、数時間から数日を要していました。この時間とコストのボトルネックが、新材料や新技術の開発における大きな障壁となっていましたが、SpectroGenはこの課題を根本から解決します。

研究チームは6,000以上の鉱物サンプルデータセットでAIを訓練し、その性能を実証。AIが生成したデータは、物理的な測定器による実データと99%という高い相関性を示しました。さらに、分析時間は従来の数時間から数日かかっていたものが、1分未満にまで短縮されることも確認されています。

この技術は、半導体やバッテリー、医薬品などの製造ラインにおける品質管理はもちろん、病気の診断支援や持続可能な農業分野への応用も期待されています。研究チームはスタートアップを設立し、防衛分野まで含めた幅広い産業への技術展開を目指しています。

MIT、AIで食糧支援の栄養効果を最大化へ

食糧支援の新たな課題

世界で深刻化する飢餓と肥満
従来の画一的な補助金の限界
低所得者層の購買データ不足

MITの最適化アプローチ

POSデータで購買習慣を分析
アルゴリズムで潜在需要を予測
補助金設計を動的に最適化

政策応用への展望

データ駆動型の政策立案
大規模展開時のコスト課題

マサチューセッツ工科大学(MIT)の研究者が、デジタルプラットフォームと最適化アルゴリズムを用い、食糧補助金の栄養面での効果を最大化する新手法を開発しています。インドの小規模食料品店から得た購買データに基づき、個人の嗜好をモデル化。これまでの画一的な支援とは一線を画す、データ駆動型のアプローチで食糧安全保障という世界的課題に挑みます。

世界では6億7千万人以上が飢餓に苦しむ一方、肥満も深刻化しており、食糧支援のあり方が問われています。従来の補助金制度は、長期的な栄養改善への効果測定が難しく、特に低・中所得国ではデータ収集のインフラが未整備なため、低所得者層の真のニーズを把握しきれていないのが実情でした。

この課題に対し、研究チームはインドの小規模店舗にPOSスキャナーを導入して購買データを収集。その取引データを基に、個人の「隠れた好み」を解析する独自のアルゴリズムを開発しました。これにより、各個人の需要動向を予測し、提供する食料品の多様性や量、価格などを調整する最適化モデルを構築します。

この研究の最終目標は、最適化という新たな方法論を食糧支援政策に導入することです。これまで政策は、専門家の知見や政治的判断に大きく依存してきました。ここにデータに基づく厳密なエビデンスを加えることで、より効果的で効率的な政策立案が可能になると期待されています。

実用化には、大規模なデータ収集に伴うコストやインフラの壁といった課題も残ります。研究チームは、今回のパイロット研究で得られた知見を活かし、より費用対効果の高いデータ収集方法を模索する計画です。このアプローチが、食糧支援のあり方を根本から変革する一歩となるか、今後の展開が注目されます。

MIT技術でAIが自律的に進化へ

SEAL技術の概要

LLMが自律的に自己改善
合成データを生成し学習

具体的な性能

知識タスクで大幅な性能向上
GPT-4.1が生成したデータを上回る
フューショット学習でも成功

今後の課題と展望

災害的忘却リスク
計算コストが課題
モデルの大型化で適応能力向上

マサチューセッツ工科大学(MIT)の研究チームが、大規模言語モデル(LLM)が自らを改善する技術「SEAL」の改良版を公開し、AIの自律的な進化が現実味を帯びてきました。この技術は、LLMが自ら合成データを生成してファインチューニングを行うことで、外部からの継続的なデータ供給や人間の介入なしに性能を向上させることを可能にします。

SEALの核心は、モデルが「自己編集」と呼ばれる自然言語の指示を生成し、それに基づいて自らの重みを更新する点にあります。これは、人間が学習内容を再構成して理解を深めるプロセスに似ており、従来のモデルがデータをそのまま受け身で学習するのとは一線を画します。

性能評価では、SEALは目覚ましい成果を上げています。新たな事実知識を取り込むタスクでは、正答率を33.5%から47.0%へと向上させ、これはGPT-4.1が生成したデータを使った場合を上回りました。また、少数の例から学ぶフューショット学習でも、成功率を20%から72.5%に引き上げています。

技術的には、SEALは「内側ループ」で自己編集による教師ありファインチューニングを行い、「外側ループ」で強化学習によってより有益な編集を生成する方策を学ぶ、という二重ループ構造を採用しています。計算効率を高めるため、効率的なファインチューニング手法であるLoRAが活用されています。

しかし、課題も残されています。新たな情報を学習する際に、以前に学習した能力が低下する「災害的忘却」のリスクや、一つの編集を評価するのに30~45秒かかる計算コストの高さが挙げられます。研究チームは、強化学習がこの忘却を緩和する可能性があると指摘しています。

それでも、この技術がもたらすインパクトは計り知れません。AIコミュニティからは「凍結された重みの時代の終わり」との声も上がっており、モデルが環境の変化に合わせて進化し続ける、より適応的でエージェント的なAIシステムへの道を開くものと期待されています。

2045年シンギュラリティ到来、AIで知性100万倍に

加速する技術進歩

技術革新は指数関数的に成長
人々は進歩の加速を過小評価
今後20年で驚異的な飛躍

人間とAIの完全融合

脳とクラウド直接接続
2032年頃に長寿脱出速度へ到達
2045年に知性は100万倍に拡大

技術の両刃の剣

AIの脅威は現実的で深刻
リスクを管理する道徳的義務

発明家で未来学者のレイ・カーツワイル氏は10月9日、母校マサチューセッツ工科大学(MIT)での講演で、AIと人間の完全な融合が2045年までに実現し「シンギュラリティ(技術的特異点)」が到来するとの見通しを改めて強調しました。同氏は技術進歩の加速を指摘し、今後20年で驚異的な飛躍が起こると予測しています。

カーツワイル氏の予測の核心は、2045年までに人類がAIと完全に融合し、知能が現在の100万倍にまで拡大するというものです。このシンギュラリティにより、我々の知性は生物学的な制約から解放され、根本的に変容すると同氏は主張します。まさにSFのような未来図です。

シンギュラリティへの道筋として、同氏は2030年代には分子サイズのロボットが脳内に入り、脳をクラウドに直接接続すると述べました。これにより思考能力が飛躍的に向上し、脳内にスマートフォンを持つような状態が実現されるとしています。まさに思考がそのまま情報処理となるのです。

AIがもたらす最も大きな変革の一つは、健康と医療分野です。カーツワイル氏は、2032年頃には「長寿脱出速度」に達すると予測します。これは科学の進歩によって1年生きるごとに1年以上の寿命を得られる状態を指し、健康への意識が高い人々からその恩恵が始まるとの見解を示しました。

これらの予測の根底には、技術の進歩は直線的ではなく「指数関数的」に進むというカーツワイル氏の揺るぎない信念があります。多くの人々が直線的な変化しか想定していないため、技術がもたらす未来の変革の大きさと速さを過小評価している、と同氏は警鐘を鳴らします。

もちろん、技術には常に二面性があります。カーツワイル氏はAIがもたらす脅威は現実的であり、真剣に対処すべきだと認めます。しかし、その上で「我々には新しい技術の可能性を実現し、そのリスクを管理する道徳的義務がある」と述べ、未来への楽観的な姿勢を崩しませんでした。

Samsungの超小型AI「TRM」、再帰で巨大LLMを超える

TRMのパラメーターと仕組み

パラメーター数はわずか700万
既存LLMの1万分の1サイズ
再帰的推論による予測の洗練
低コストで高性能モデルを実現

性能と適用領域

数独や迷路など構造化パズルに特化
特定ベンチマーク巨大LLMを凌駕
設計の簡素化が汎化性能向上に寄与
コードはMITライセンスで公開中

韓国Samsung AI研究所の研究者が、新たな超小型AIモデル「TRM(Tiny Recursion Model)」を発表しました。わずか700万パラメーターのこのモデルは、特定の推論ベンチマークにおいて、OpenAIのo3-miniやGoogleGemini 2.5 Proなど、1万倍以上巨大なLLMの性能を凌駕しています。AI開発における「スケールこそ全て」という従来のパラダイムに対し、低コストで高性能を実現する新たな道筋を示す画期的な成果です。

TRMの最大の特徴は、階層構造を持つ複雑なネットワークを排除し、単一の2層モデルを採用した点です。このモデルは、入力された質問と初期回答に対し、推論ステップを繰り返して自身の予測を再帰的に洗練させます。この反復的な自己修正プロセスにより、深いアーキテクチャをシミュレートし、巨大モデルに匹敵する推論能力を獲得しています。

TRMは、構造化され、視覚的なグリッドベースの問題に特化して設計されました。特にSudoku-Extremeで87.4%の精度を達成し、従来モデル(HRM)の55%から大幅に向上。また、人間の推論は容易だがAIには難解とされるARC-AGIベンチマークでも、数百万倍のパラメーターを持つ最上位LLMに匹敵する結果を出しています。

開発者は、高額なGPU投資電力消費を伴う巨大な基盤モデルへの依存は「罠」だと指摘します。TRMの成功は、複雑性を減らすことで逆に汎化性能が向上するという「Less is More(少ない方が豊か)」の設計思想を裏付けました。この成果は、大規模な計算資源を持たない企業や研究者でも、高性能AIを開発できる可能性を示唆します。

TRMのコードは、商用利用も可能なMITライセンスのもとGitHubでオープンソース公開されています。これにより、企業は特定の推論タスク解決のために、巨大LLMのAPIを利用するのではなく、自社のサーバーで低コストの専用モデルを構築・運用できます。今後は、再帰的推論スケーリング則や、生成タスクへの応用が焦点となる見込みです。

AIでロボット訓練環境を革新:物理法則守る多様な仮想世界を超速生成

訓練環境の課題克服

実機訓練の時間とコストを大幅削減
従来のシミュレーション物理的な不正確さを解消

コア技術とリアリティ担保

生成AI(拡散モデル)を活用した3D仮想環境の創出
MCTS適用により複雑で多様な配置を自動設計
フォークが皿を貫通しないなど物理的正確性を保証

高精度なシーン生成

テキスト指示で目的通りのシーンを高精度に生成
将来は開閉可能な物体や新規オブジェクトにも対応

マサチューセッツ工科大学(MIT)とトヨタ研究所は、ロボットの訓練を革新する新しい生成AI技術「Steerable Scene Generation(ステアラブル・シーン生成)」を開発しました。このシステムは、キッチンやレストランなど、多様な実世界の仮想環境を、物理法則にのっとりながら、手作業の数倍の効率で自動生成します。これにより、時間とコストがかかる実機訓練や、不正確さが課題だった従来のシミュレーションの壁を破り、ロボット開発の生産性を飛躍的に高めることが期待されています。

ロボットが現実世界で有用なアシスタントとなるためには、膨大で多様なデモンストレーションデータが必要です。しかし、実際のロボットでデータ収集するのは非効率的です。従来のシミュレーション環境作成は、手作業でデジタル環境を設計するか、非現実的な物理現象(オブジェクトの貫通など)を含むAI生成に頼るしかありませんでした。「ステアラブル・シーン生成」は、この訓練データの多様性とリアリティの欠如という長年のボトルネックを解消することを目指しています。

本技術の中核は、生成AIの拡散モデルを「ステアリング」(誘導)することです。特に注目すべきは、ゲームAIとして有名な「モンテカルロ木探索(MCTS)」を3Dシーン生成タスクに初めて適用した点です。MCTSは、シーン生成を連続的な意思決定プロセスと捉え、部分的なシーンを段階的に改良します。これにより、モデルが学習したデータセットに含まれるよりもはるかに複雑で、多様性の高いシーンを自動で作り出します。

仮想環境のリアルさは、ロボットが実世界で動作するために不可欠です。このシステムは、物理的な正確性を徹底的に保証します。例えば、テーブル上のフォークが皿を突き抜ける「クリッピング」といった3Dグラフィックス特有の不具合を防ぎます。訓練では、4400万件以上の3Dルームデータを利用しており、これが実世界に近いインタラクションをシミュレートする基盤となっています。

本システムは、強化学習を用いた試行錯誤や、ユーザーが直接テキストプロンプトを入力することで、柔軟に利用できます。「キッチンにリンゴ4個とボウルを」といった具体的指示に対しても、パントリーの棚配置で98%、散らかった朝食テーブルで86%という高い精度でシーンを構築することに成功しています。これは既存の類似手法に比べ、10%以上の改善であり、ロボット工学者が真に利用可能なデータを提供します。

研究者らは今後、この技術をさらに進化させ、既存のライブラリに頼らず、AIが新しいオブジェクト自体を生み出すことや、キャビネットや瓶といった「開閉可能な関節オブジェクト」を組み込むことを計画しています。このインフラが普及すれば、多様でリアルな訓練データが大量に供給され、器用なロボットの実用化に向けた大きな一歩となるでしょう。ロボット開発の効率化と市場投入の加速に直結する重要な進展です。

MITとMBZUAIが5年協定、AI基盤強化と地球課題解決へ

連携の核心

AIの基盤強化と応用促進
期間は5年間の国際共同研究

共同研究の重点領域

科学的発見の加速
人間の繁栄への貢献
地球の健康(持続可能性)

プログラム運営体制

研究資金はMBZUAIが支援
両大学から共同責任者を任命
研究成果はオープン公開を原則

マサチューセッツ工科大学(MIT)のシュワルツマン・コンピューティング・カレッジは、ムハンマド・ビン・ザーイド人工知能大学(MBZUAI、アラブ首長国連邦)との5年間にわたる共同研究プログラムを正式に開始しました。この連携は、AIの技術的基盤を強化するとともに、喫緊の科学的・社会的課題への応用を加速させることを目的としています。国際的なトップレベルの頭脳が結集し、次世代AIの方向性を定める動きとして注目されます。

本プログラムでは、教員や研究者、学生が連携し、主に三つの核となる領域で基礎研究を推進します。それは「科学的発見の加速」「人間の繁栄への貢献」、そして「地球の健康(環境問題や持続可能性)」です。MIT側は「AIが責任ある、包括的かつ世界的に影響力のある形で進化する」という共通のコミットメントを強調しています。

MBZUAIのエリック・シン学長は、この提携が「トランスコンチネンタル(大陸横断的)な発見の橋」を築くと述べています。AI専用の大学であるMBZUAIが持つ基盤モデル実世界への展開力と、MITが誇る計算科学と学際的なイノベーションの深さを融合させます。これにより、ブレークスルーが人間の健康改善やインテリジェント・ロボティクスなどに直結することが期待されます。

このプログラムは、AI科学を通じた進歩を専門とするアブダビ拠点のMBZUAIからの資金支援を受けて運営されます。毎年多数の共同プロジェクトが資金提供を受け、両大学から選出された運営委員会が研究テーマを決定します。さらに重要な点として、研究成果は原則としてオープンに公開可能であり、広範な知識共有を促進する方針です。

MLで5倍強いアルミ合金開発 3Dプリントにより航空機軽量化へ

機械学習が導くレシピ

高性能アルミニウム合金のレシピを特定
機械学習を活用した新材料探索
100万通りから40通りに絞り込み成功

高強度化の鍵となる製法

従来の5倍の強度を実現
3Dプリント(LBPF)を採用
急速冷却による微細な析出物を生成

軽量化とコスト削減効果

ジェットエンジンファンブレードへの応用
チタンより50%軽量かつ低コスト
輸送産業のエネルギー節約に寄与

MITエンジニアチームは、機械学習(ML)を活用し、従来の製法に比べ5倍の強度を持つ3Dプリント可能なアルミニウム合金を開発しました。この新合金は、航空機や高性能自動車部品の軽量化を加速させ、輸送産業における大幅なエネルギー節約に貢献すると期待されています。MLによる効率的な材料設計と積層造形(3Dプリント)技術の組み合わせが、高強度と耐熱性を両立させました。

従来、新しい合金を開発するには、100万通り以上の組成をシミュレーションする必要がありましたが、MLを導入することで、わずか40通りの組成評価で最適な配合を特定できました。複雑な要素が非線形に寄与する材料特性探索において、MLツールは設計空間の探索を劇的に効率化します。この手法は、今後の合金設計プロセス全体を変革する可能性を秘めています。

高強度を実現した鍵は、製造プロセスにあります。従来の鋳造では冷却に時間がかかり、合金の強度を左右する微細な析出物が大きく成長してしまいます。対照的に、チームが採用したレーザー粉末床溶融結合(LBPF)などの3Dプリント技術は、急速な冷却と凝固を可能にし、予測通りの高強度を持つ微細な析出物を安定的に生成しました。

新合金は、現行の最強の鋳造アルミニウム合金に匹敵する強度を持ち、さらにアルミニウム合金としては非常に高い400度Cまでの高温安定性を誇ります。これにより、ジェットエンジンのファンブレードなど、これまでチタンや複合材が使われていた部品への適用が可能になります。チタンより50%以上軽量かつ最大10分の1のコストで済むため、部品製造の収益性を高めます。

この3Dプリント可能な新合金は、複雑な形状の製造に適しており、航空機部品のほかにも、高性能自動車データセンターの冷却装置など、幅広い分野での利用が見込まれています。材料設計と積層造形の特性を組み合わせたこの新たな設計手法は、様々な産業における軽量化ニーズに対応し、革新的な製品開発の扉を開きます。

核融合炉の信頼性向上へ MITがMLと物理モデルを融合しプラズマ挙動を予測

核融合発電の課題

超高温プラズマを磁場で封じ込め
プラズマ電流停止時(ランプダウン)に不安定化
不安定化は炉内壁を損傷させ、修理コストが増大

MLと物理モデルの融合

MLと物理ベースモデルを組み合わせ予測
少ないデータ量で高精度な予測を実現
スイスの実験炉データで有効性を確認済み

実用化への貢献

制御指令(トラジェクトリ)を自動生成し、安全な停止を指示
商用化を目指すCFS社と連携し実機適用を推進

マサチューセッツ工科大学(MIT)の研究チームは、核融合炉の安定稼働に不可欠なプラズマ挙動の予測モデルを開発しました。機械学習(ML)と物理ベースのシミュレーションを組み合わせることで、運転終了時の「ランプダウン」におけるプラズマの不安定化を正確に予測します。この技術は、炉の損傷を防ぎ、将来的な核融合発電プラントの信頼性と安全性を飛躍的に向上させると期待されています。

核融合炉の心臓部であるトカマク型装置は、太陽の核よりも高温のプラズマを強力な磁場で封じ込めます。プラズマ電流が不安定になると、炉内壁を損傷するリスクがあり、特に高速で循環する電流を停止させるランプダウン時に問題が発生しやすいです。損傷が発生すると、修理に時間と多大な資源が必要となります。

MITが開発したのは、ニューラルネットワークと既存のプラズマダイナミクス物理モデルを組み合わせたハイブリッド手法です。超高温・高エネルギーのプラズマはデータ収集が難しく高コストですが、この複合モデルを採用することで、非常に少ない実験データで高い精度を実現しました。これにより、トレーニング効率が大幅に改善されます。

この予測モデルに基づき、プラズマを安定的に停止させるための具体的な制御指令(トラジェクトリ)を自動生成するアルゴリズムも開発されました。スイスの実験用トカマク(TCV)での検証では、従来手法に比べて迅速かつ安全にランプダウンを完了できることが統計的に証明されています。実用化に向けた大きな一歩です。

この技術は、MITのスピンアウト企業であり、世界初の商用規模の核融合炉開発を目指すコモンウェルス・フュージョン・システムズ(CFS)社と共同で進められています。CFSが開発中の実証炉「SPARC」に本モデルを適用し、エネルギーなプラズマの安定制御を実現することで、安全かつ信頼性の高い核融合発電の実現を加速させます。

AI創薬が新境地、抗生物質の作用機序を高速解明

AIが解明した新抗生物質

新化合物enterololinを発見
クローン病関連の悪玉菌のみを標的
腸内フローラへの影響を最小化

創薬プロセスを劇的に変革

AIが作用機序を数分で予測
開発期間を数年から数ヶ月に短縮
従来手法比で大幅なコスト削減
精密医療薬剤耐性問題への貢献

マサチューセッツ工科大学(MIT)とマクマスター大学の研究チームが、生成AIを活用し、クローン病に関連する特定の腸内細菌のみを標的とする新しい抗生物質の作用機序を解明しました。このAI技術により、通常は数年を要する研究がわずか数ヶ月に短縮され、精密な創薬開発の新たな可能性が示されています。

従来の広域抗生物質は、善玉菌まで殺してしまい、かえって症状を悪化させる課題がありました。原因菌だけを叩く「精密抗生物質」が求められていましたが、その薬が体内でどう働くか、作用機序の解明が開発の大きな障壁となっていました。

そこで研究チームは、MITが開発した生成AIモデル「DiffDock」を使用。このAIは、新化合物「enterololin」が細菌内の特定のタンパク質複合体に結合することをわずか数分で予測しました。この正確な予測が、その後の実験の「GPS」となり、研究を大幅に加速させました。

AIによる予測と実験室での検証を組み合わせることで、作用機序の解明にかかる期間を数年からわずか6ヶ月へと劇的に短縮。コストも大幅に削減できたといいます。これは、AIが単に候補物質を見つけるだけでなく、その働きを説明する段階にまで進化したことを示しています。

今回の成功は、クローン病治療に光明を灯すだけでなく、創薬プロセス全体の変革を予感させます。AIによる作用機序の迅速な解明は、治療が難しい他の病気や、深刻化する薬剤耐性菌問題に対する新たな武器となり得ます。臨床試験は数年以内に開始される見込みです。

MIT起業家センター、AI専門家をトップに

新任エグゼクティブ・ディレクター

アナ・バクシ氏が就任
英国の名門大学での実績
豊富な起業家教育の知見

MITの狙いと今後の展望

AI時代起業家教育を刷新
研究成果の社会実装を加速
次世代の起業家を育成
世界的なリーダーシップ強化

マサチューセッツ工科大学(MIT)は、マーティン・トラスト・センターの新エグゼクティブ・ディレクターにアナ・バクシ氏を任命しました。バクシ氏はAIスタートアップのCOO経験と、英国名門大学での起業家教育センター設立の実績を持ち、AI時代の教育革新を牽引します。

バクシ氏はオックスフォード大学やキングス・カレッジ・ロンドンで、ゼロから世界トップクラスの起業家センターを設立した実績を持ちます。彼女が支援したスタートアップは、5億ドル以上の資金調達と約3,000人の雇用を創出しました。

AIの進化は社会の変化を加速させています。気候変動やヘルスケアなど、山積する課題の解決には、より優秀な起業家が不可欠です。MITはバクシ氏のリーダーシップの下、時代が求める人材育成を強化する構えです。

バクシ氏は学術界だけでなく、AIスタートアップ「Quench.ai」で最高執行責任者(COO)を務めた経験も持ちます。急成長する民間企業での実務経験は、研究成果の社会実装を加速させる上で大きな強みとなるでしょう。

今後の焦点は、AIが学習や事業構築の方法を変える中で、学生教員が知識を社会的なインパクトに変えるための支援を拡大することです。MITが開発したAI搭載ツールなども活用し、起業家教育の実践と理論を進化させます。

MITの経営陣も、バクシ氏の就任に大きな期待を寄せています。AIが主導する新時代の企業創出において、彼女の経験がMIT世界的なリーダーシップをさらに強固なものにすると確信しているのです。

MIT、米国大学最強のAIスパコンを公開

圧倒的な計算能力

米国大学で最強のAIスパコン
ピーク性能は2 AIエクサフロップス
600基以上のNVIDIAGPU搭載

生成AI研究を加速

生成AIの開発・応用に特化
創薬や新素材設計への応用
気象データ補完や異常検知

幅広い分野への貢献

航空管制や国防分野での実績
ユーザーフレンドリーな設計
エネルギー効率の高い運用も追求

マサチューセッツ工科大学(MIT)リンカーン研究所は2025年10月2日、米国の大学で最も強力なAIスーパーコンピュータ「TX-GAIN」を公開したと発表しました。このシステムは、生成AIや物理シミュレーション、データ分析といった最先端分野の研究を加速させ、科学技術におけるブレークスルー創出を目的としています。研究者はこの圧倒的な計算能力を活用し、新たなイノベーションを追求します。

TX-GAINの性能は、ピーク時で2 AIエクサフロップス(毎秒200京回のAI向け演算)に達します。AI処理に特化した600基以上のNVIDIAGPUがこの計算能力を支え、米国の大学でトップ、北東部地域全体でも最強のAIシステムと評価されています。今夏オンライン化されて以来、研究者の注目を集めています。

TX-GAINの名称が示す通り、特に生成AIの開発と応用に力が注がれています。大規模言語モデルだけでなく、レーダー署名の評価、気象データの補完、ネットワークの異常検知、さらには新薬や新素材の設計といった多様な領域で活用が進みます。これまで不可能だった規模のシミュレーションやモデル訓練が可能になります。

リンカーン研究所スーパーコンピューティングセンター(LLSC)は、これまでも国の重要課題解決に貢献してきました。連邦航空局向けの航空機衝突回避システムや、国防総省向けの自律航法モデルの訓練など、社会の安全保障に直結する研究で数々の実績を上げています。TX-GAINはこれらの取り組みをさらに加速させる強力な基盤となります。

LLSCは、専門家でなくてもスパコンを利用できる「インタラクティブ性」を重視し、ラップトップPCのような手軽な操作性を実現。同時に、AIの膨大な電力消費という課題にも向き合い、エネルギー効率の高い運用と省電力化技術の研究にも取り組むなど、持続可能な研究環境の構築を目指しています。

Google、量子計算加速へMIT発新興企業を買収

買収の概要

量子ハードウェア開発チームが合流
大規模量子コンピュータ開発の加速

注目の独自技術

独自技術モジュラーチップスタック
量子ビットと制御回路を極低温で統合
ハードウェア拡張性を大幅に向上

目指す将来像

誤り耐性量子コンピュータの実現へ
未解決の社会問題解決への応用

Googleは2025年10月2日、同社の量子AI部門にマサチューセッツ工科大学(MIT)発のスタートアップ、Atlantic Quantumのチームが加わると発表しました。同社の持つ独自のハードウェア技術を取り込むことで、大規模な誤り耐性量子コンピュータの開発を加速させる狙いです。この動きは、実社会の課題解決に向けた量子コンピューティング開発競争が新たな段階に入ったことを示唆しています。

今回のチーム合流の決め手は、Atlantic Quantumが持つ「モジュラーチップスタック」技術です。これは、量子コンピュータの心臓部である量子ビットと、それを制御する電子回路を極低温環境下で高密度に統合する革新的なアプローチであり、これまで技術的課題とされてきたハードウェアの拡張性(スケーラビリティ)を大幅に向上させることが可能になります。

この技術統合により、Googleの量子プロセッサ開発は一層加速することが期待されます。チップの設計・製造が効率化され、より多くの量子ビットを安定して搭載できるようになるためです。実用的な量子コンピュータの実現にはハードウェアの規模拡大が不可欠であり、今回のチーム合流はその重要な一歩と言えるでしょう。

Googleが目指す最終目標は、計算エラーを自動訂正する「誤り耐性」を持つ大規模量子コンピュータの構築です。これが実現すれば、創薬や材料開発、金融モデル最適化など、従来手法では解決不可能だった問題に取り組めるようになります。社会に大きな利益をもたらす技術への投資を、同社は今後も続ける方針です。

量子コンピューティング分野では、巨大IT企業間の開発競争が激化しています。今回の発表は、Googleハードウェアスケーリングという核心的課題に対し、外部の優れた知見を取り込んででも解決を急ぐという強い意志の表れです。今後の技術開発の進展から目が離せません。

AIの電力危機、MITが示す技術的解決策

急増するAIの環境負荷

日本の総消費電力を上回る規模
需要増の60%を化石燃料に依存

ハード・ソフト両面の対策

GPU出力を抑える省エネ運用
アルゴリズム改善で計算量を削減
再生可能エネルギー利用の最適化

AIで気候変動を解決

AIによる再エネ導入の加速
プロジェクトの気候影響スコア化

マサチューセッツ工科大学(MIT)の研究者らが、急速に拡大する生成AIの環境負荷に対する具体的な解決策を提示しています。国際エネルギー機関(IEA)によると、データセンター電力需要は2030年までに倍増し、日本の総消費電力を上回る見込みです。この課題に対し、研究者らはハードウェアの効率運用、アルゴリズムの改善、AI自身を活用した気候変動対策など、多角的なアプローチを提唱しています。

AIの電力消費は、もはや看過できないレベルに達しつつあります。ゴールドマン・サックスの分析によれば、データセンター電力需要増の約60%が化石燃料で賄われ、世界の炭素排出量を約2.2億トン増加させると予測されています。これは、運用時の電力だけでなく、データセンター建設時に排出される「体現炭素」も考慮に入れる必要がある、と専門家は警鐘を鳴らします。

対策の第一歩は、ハードウェアの運用効率化です。MITの研究では、データセンターGPU画像処理半導体)の出力を通常の3割程度に抑えても、AIモデルの性能への影響は最小限であることが示されました。これにより消費電力を大幅に削減できます。また、モデルの学習精度が一定水準に達した時点で処理を停止するなど、運用の工夫が排出量削減に直結します。

ハードウェア以上に大きな効果が期待されるのが、アルゴリズムの改善です。MITのニール・トンプソン氏は、アルゴリズムの効率改善により、同じタスクをより少ない計算量で実行できる「Negaflop(ネガフロップ)」という概念を提唱。モデル構造の最適化により、計算効率は8~9ヶ月で倍増しており、これが最も重要な環境負荷削減策だと指摘しています。

エネルギー利用の最適化も鍵となります。太陽光や風力など、再生可能エネルギーの供給量が多い時間帯に計算処理を分散させることで、データセンターのカーボンフットプリントを削減できます。また、AIワークロードを柔軟に調整する「スマートデータセンター」構想や、余剰電力を蓄える長時間エネルギー貯蔵ユニットの活用も有効な戦略です。

興味深いことに、AI自身がこの問題の解決策となり得ます。例えば、AIを用いて再生可能エネルギー発電所の送電網への接続プロセスを高速化したり、太陽光・風力発電量を高精度に予測したりすることが可能です。AIは複雑なシステムの最適化を得意としており、クリーンエネルギー技術の開発・導入を加速させる強力なツールとなるでしょう。

生成AIの持続可能な発展のためには、こうした技術的対策に加え、企業、規制当局、研究機関が連携し、包括的に取り組むことが不可欠です。MITの研究者らは、AIプロジェクトの気候への影響を総合的に評価するフレームワークも開発しており、産官学の協力を通じて、技術革新と環境保全の両立を目指す必要があると結論付けています。

Meta、ロボットOSで覇権狙う AR級の巨額投資

ボトルネックはソフトウェア

ARに次ぐ数十億ドル規模投資
ハードウェアではなくソフトウェアが開発の鍵
器用な操作を実現するAIモデルが不可欠

「ロボット界のAndroid」構想

自社製ロボットMetabot」も開発
他社へソフトウェアをライセンス供与
プラットフォームで業界標準を狙う

専門家集団による開発体制

元Cruise CEOがチームを統括
MITなどからトップ人材を結集

Metaは、ヒューマノイドロボット開発を拡張現実(AR)に次ぐ大規模な投資対象と位置付けていることを明らかにしました。同社のアンドリュー・ボスワースCTOによると、数十億ドル規模を投じ、ハードウェアではなくソフトウェア開発に注力します。開発したプラットフォームを他社にライセンス供与する「ロボットAndroid」とも言える戦略で、急成長する市場の主導権を握る構えです。

なぜソフトウェアが重要なのでしょうか。ボスワース氏は「ハードウェアは難しくない。ボトルネックはソフトウェアだ」と断言します。ロボットがコップを絶妙な力加減で掴むといった器用な操作は極めて困難であり、この課題を解決するため、AIが現実世界をシミュレーションする「ワールドモデル」の構築が不可欠だと説明しています。

Metaの戦略は、自社でハードウェアを製造し販売することではありません。社内で「Metabot」と呼ばれるロボットを開発しつつも、その核心技術であるソフトウェアを他社ロボットメーカーに広くライセンス供与する計画です。これはGoogleAndroid OSでスマートフォン市場のエコシステムを築いた戦略と類似しており、オープンなプラットフォームで業界標準となることを目指します。

この野心的な計画を支えるのが、Metaが新設した「Superintelligence AI lab」です。このAI専門組織がロボティクスチームと緊密に連携し、ロボット知能を司るAIモデルを開発します。ボスワース氏は「このAIラボがなければ、このプロジェクトは実行しなかった」と述べ、AI開発能力が自社の最大の強みであるとの認識を示しました。

このアプローチは、テスラが開発する「Optimus」とは一線を画します。ボスワース氏は、人間の視覚を模倣してデータを集めるテスラの手法について「ロボット用のデータをどうやって十分に集めるのか疑問だ」と指摘。Metaシミュレーションワールドモデルを駆使して、このデータ問題を解決しようとしています。

Metaの本気度は、集結した人材からも伺えます。自動運転企業Cruiseの元CEOであるマーク・ウィッテン氏がチームを率い、MITから「現代最高の戦術ロボット工学者」と評されるキム・サンベ氏を招聘。社内のトップエンジニアも結集させ、盤石な体制でこの巨大プロジェクトに挑みます。

MIT、対話型AI「MultiverSeg」開発 医療研究を加速

マサチューセッツ工科大学(MIT)の研究者が、医療画像のセグメンテーション(領域分割)作業を劇的に効率化する新しい対話型AIシステム「MultiverSeg」を開発しました。このシステムは、ユーザーが画像上で行うクリックや走り書きなどの簡単な操作から学習します。作業を繰り返すほどAIの精度が向上し、最終的にはユーザーの操作なしで高精度なセグメンテーションが可能になり、臨床研究の加速やコスト削減が期待されます。 MultiverSegの最大の特徴は、ユーザーの操作を学習し続ける点にあります。従来の対話型ツールでは画像ごとに同じ操作を繰り返す必要がありましたが、本システムは過去の作業結果を「コンテキストセット」として記憶・参照します。これにより、新しい画像を処理する際のユーザーの負担が徐々に軽減され、作業効率が飛躍的に向上します。この仕組みは、これまでのアプローチの長所を組み合わせたものです。 性能比較実験では、他の最先端ツールを上回る結果を示しました。例えば、9枚目の画像を処理する頃には、わずか2回のクリックでタスク特化型モデルより高い精度を達成しました。X線画像のような特定のケースでは、1〜2枚の画像を手動で処理するだけで、AIが自律的に高精度な予測を行えるようになります。これは、手作業に比べ圧倒的な時間短縮です。 このツールのもう一つの利点は、機械学習の専門知識や事前のデータセット準備が不要なことです。研究者や医師は、セグメンテーションしたい新しい画像をアップロードし、直感的に操作を始めるだけですぐに利用できます。AIモデルの再トレーニングも不要なため、導入のハードルが低く、幅広い臨床現場や研究での活用が見込まれます。 研究チームは今後、臨床現場での実証実験を通じてフィードバックを収集し、システムの改善を進める計画です。また、現在は2D画像のみに対応していますが、将来的には3D医用画像への応用も目指しています。この技術が普及すれば、新しい治療法の研究が加速し、臨床試験や医療研究全体のコスト削減に大きく貢献する可能性があります。

MIT、新素材発見AIを開発 燃料電池で記録的性能を達成

マサチューセッツ工科大学(MIT)が、新素材発見のプロセスを根本から変える可能性を秘めたAIプラットフォーム「CRESt」を開発しました。このシステムは、科学論文から実験データ、画像まで多様な情報を統合し、ロボットと連携して自律的に実験を進めます。研究開発のあり方を大きく変革する一歩となるでしょうか。 CREStはすでに具体的な成果を上げています。研究チームはCREStを用いて900以上の化学組成を探索し、3500回の電気化学試験を実施。その結果、ギ酸塩燃料電池において記録的な出力密度を達成する触媒材料を発見しました。高価な貴金属の使用量を4分の1に抑えつつ、性能を大幅に向上させることに成功しています。 CREStの最大の特徴は、多様な情報源(マルチモーダル)を扱える点です。従来のAIが特定のデータのみに依存していたのに対し、CREStは論文のテキスト、化学組成、顕微鏡画像などを統合的に学習します。これにより、人間の科学者が持つような幅広い知見に基づいた、より高度な判断を可能にしました。 研究者はコーディング不要で、自然言語(チャット)を使ってCREStに指示を出せます。指示を受けたCREStは、液体処理ロボットや材料合成装置、自動試験装置などを駆使して実験を遂行。実験結果は再びAIにフィードバックされ、次の実験計画が最適化されるというサイクルが自動で構築されます。 材料科学の実験では、再現性の確保が大きな課題でした。CREStはカメラと画像認識モデルを用いて実験プロセスを常時監視します。ピペットの位置ずれやサンプルの形状異常といった問題を検知し、人間に対して修正案を提案することで、実験の品質と一貫性を高めることにも貢献します。 研究チームは、CREStを「人間の研究者に取って代わるものではなく、アシスタントである」と位置づけています。AIが仮説立案や実験の自動化を担う一方で、最終的な判断やデバッグは人間が主導します。人間とAIの協働による、より柔軟で効率的な「自律駆動型ラボ」の実現に向けた大きな一歩と言えるでしょう。

AI、若手技術者の雇用を脅かすも生産性は向上

スタンフォード大学とマサチューセッツ工科大学(MIT)の研究者が、生成AIが労働市場に与える影響について新たな研究結果を明らかにしました。2022年後半以降、AIに代替されやすい職種では若手技術者の雇用が減少する一方、既存労働者の生産性は大幅に向上することが判明。AIは単純作業を自動化し、経験豊富な人材の業務を支援するため、企業は採用・育成戦略の見直しを迫られそうです。 スタンフォード大学デジタルエコノミーラボの研究によると、2022年後半からAIの影響を受けやすい職種で、若手(22〜30歳)の雇用が明確に減少しています。米国最大の給与計算代行会社ADPの最新データ分析で判明したもので、特にソフトウェアエンジニアなどの職種でこの動きが顕著です。 興味深いことに、若手層の雇用が減少する一方で、同じ職種の中堅・シニア層の雇用は安定、もしくは増加傾向にあります。これは、AIが経験豊富な労働者の専門知識を代替するのではなく、業務を拡張するツールとして機能していることを示唆しています。経験値がAI活用の鍵となりそうです。 一方、マサチューセッツ工科大学(MIT)の研究では、AIの生産性向上効果が実証されています。2023年の研究では、ChatGPTがライティング業務の生産性を大幅に向上させると判明。特に、これまで成績が振るわなかった労働者ほど、その恩恵が大きかったといいます。 AIがもたらすこの二面性は、業務を「自動化」するか「拡張」するかの違いに起因します。エントリーレベルの定型的なタスクは自動化されやすく、若手の雇用機会を奪う可能性があります。一方、複雑な判断を伴う業務はAIで拡張され、シニア層の生産性をさらに高めるのです。 これらの研究結果は、経営者やリーダーに重要な問いを投げかけています。AIによる生産性向上は不可欠ですが、同時に若手人材の採用や育成戦略を根本から見直す必要がありそうです。人間とAIが協働する新たな組織モデルの構築が、今後の企業競争力を左右するでしょう。

MIT起業家、AIは加速装置 顧客との対話こそ事業の核心

マサチューセッツ工科大学(MIT)の学生起業家は、AIを事業開発の強力なツールとして活用しています。コーディングの高速化、プレゼンテーションの草案作成、新規市場のリサーチなど、日常業務にAIを組み込むことで、起業プロセスの効率と速度を大幅に向上させています。皆さんの会社では、どの業務にAIを応用できるでしょうか。 MIT起業家育成機関「マーティン・トラスト・センター」は、AIをあくまで「ツールキットの一つ」と位置づけています。AIによってタスクの実行方法は変わりましたが、起業の基本原則は不変だと強調します。AIは事業を加速させる「ジェットパック」のようなものですが、その操縦は起業家自身が行うべきだと指導しています。 AIの活用には注意も必要です。大規模言語モデルは平均的なデータに基づいており、特定の顧客層の深いニーズを捉えきれない場合があります。「平均的な顧客」向けの製品は、結果的に誰の心にも響かない可能性があるのです。AIの出力は鵜呑みにせず、必ず顧客の声で検証する姿勢が求められます。 学生の中には、事業の核にAIを据える「AIネイティブ」な企業も登場しています。例えば、ユーザー行動をAIでシミュレーションし、ウェブサイトなどの顧客体験を改善するツールを開発するCognify社。同社はアイデア出しから開発、市場投入戦略まで、あらゆるプロセスにAIを統合しています。 しかし、どれだけAIが進化しても、起業家が研究室や教室を飛び出し、顧客と直接対話する必要性は変わりません。顧客が誰で、何を求め、どうすればより良いサービスを提供できるか。この問いの答えは、AIだけでは見つけられないというのが、MITの一貫した考えです。 MIT学生支援のため、生成AIアプリ「Jetpack」も開発しました。これは、起業家精神の24のステップを対話形式で学べるツールです。顧客セグメントの提案や事業計画の立案を支援しますが、あくまで思考を助ける「初稿」を提供するものと位置づけられています。

MIT、量子材料の設計を加速する新AIツール開発

マサチューセッツ工科大学(MIT)の研究チームは、生成AIによる新材料の設計を加速する新ツール「SCIGEN」を開発しました。このツールは、既存のAIモデルに特定の幾何学的構造ルールを課すことで、超伝導など特殊な量子特性を持つ材料の発見を促します。従来モデルが苦手とした希少な構造を持つ材料の設計が可能になり、量子コンピュータ開発などのボトルネック解消が期待されます。 近年、AIによる新材料設計は進んでいますが、その多くは安定性を重視したものでした。しかし、量子コンピュータ開発に不可欠な「量子スピン液体」のように特殊な構造を持つ材料の発見は遅れていました。世界を変えるには、安定した1000万の材料より、一つの画期的な材料が必要なのです。 SCIGENは、拡散モデルのような生成AIが材料構造を生成する各段階で介入します。ユーザーが「カゴメ格子」といった特定の幾何学的パターンをルールとして設定すると、そのルールに合致しない候補をAIが生成しないようブロックします。これにより、AIの生成プロセスを望ましい方向に誘導することが可能になります。 研究チームはSCIGENを既存AIに適用し、特殊な格子構造を持つ材料候補を1000万以上生成しました。安定性評価を経て、これまで未知だった2種類の新物質(TiPdBi、TiPbSb)の合成に成功。実験結果はAIの予測とほぼ一致し、その有効性を示しました。 量子コンピュータの実現には、安定した量子ビットの基盤となる材料が不可欠ですが、その発見は困難でした。SCIGENは、材料が持つべき幾何学的制約を満たす候補を大量に生成します。これにより実験研究者に新たな道筋を示し、開発を大幅に加速させると期待されています。 今後の研究では、幾何学的構造だけでなく、化学的・機能的な制約も設計ルールに組み込むことが計画されています。AIによる設計と、実際の合成・実験による検証のサイクルを回すことが、画期的な新材料の発見には不可欠です。AIが有望な候補を提示し、研究者がそれを検証する協力体制が重要になります。

MIT研究者、AIで数学の発見を加速する助成金獲得

マサチューセッツ工科大学(MIT数学科の研究者らが、AIを活用して数学の発見を加速させるプロジェクトで、初回「AI for Math」助成金の受賞者に選ばれました。このプロジェクトは、大規模数学データベースと定理証明支援ライブラリを連携させるものです。これにより、AIが数学研究を支援する新たな基盤を構築し、研究開発の効率を飛躍的に高めることを目指します。 数学研究の自動化には、知識をAIが理解できる形に「形式化」するコストが高いという壁があります。このプロジェクトは、既存の膨大な数学データベースと、証明の正しさを検証するシステムを繋ぐことでこの課題を解決します。形式化の障壁を下げ、より多くの数学者がAIの恩恵を受けられるようにすることを目指します。 具体的には、数論データベース「LMFDB」と定理証明支援ライブラリ「mathlib」を連携させます。これにより、LMFDBが持つ膨大な未証明のデータを、mathlib内で証明のターゲットとして提示可能になります。これは人間とAI双方にとって、数学的発見のプロセスを大きく変える可能性を秘めています。 このアプローチの利点は、過去の計算資産を最大限に活用できる点にあります。LMFDBの構築に費やされた膨大な計算結果を再利用することで、コストを大幅に削減します。また、事前に計算された情報があるため、新たな定理の例や反例を探す探索作業も、より効率的に行えるようになります。 AIとデータベースの連携は、既に成果を生んでいます。機械学習で「マーマレーション」という数学現象が発見された際、LMFDBの整理されたデータが決定的な役割を果たしました。専門家によって整理された高品質なデータベースが、AIによる新たな発見を促す鍵となるのです。 研究チームは今後、コミュニティと連携しながらツールの開発を本格化させます。データベースの定義を形式化し、mathlib内からLMFDBの検索を実行できる機能などを実装する計画です。この取り組みは、数学だけでなくAIが専門知識を扱う他分野への応用も期待されます。

MIT、生成AIの未来を議論。次世代の鍵は「世界モデル」

マサチューセッツ工科大学(MIT)は9月17日、初の「生成AIインパクトコンソーシアム(MGAIC)」シンポジウムを開催しました。研究者やビジネスリーダー数百人が集まり、急速に進化する生成AIの未来について議論しました。基調講演ではMeta社のヤン・ルカン氏が、現行の大規模言語モデル(LLM)の先にある「世界モデル」の重要性を強調。ロボット工学への応用や倫理的課題など、多岐にわたるテーマが話し合われました。 生成AIの次なる進化の鍵はどこにあるのでしょうか。Meta社のチーフAIサイエンティストであるヤン・ルカン氏は、LLMの継続的な改良ではないと指摘します。同氏は、乳児が五感を通して周囲の世界から学ぶように、AIが物理世界を理解する「世界モデル」の開発が不可欠だと主張しました。これにより、AIはより人間らしい知能を獲得できるとしています。 「世界モデル」を搭載したロボットは、事前の訓練なしに新しいタスクを自律的に学習できるようになると期待されています。ルカン氏は、このアプローチこそが、ロボットを現実世界で広く役立つ存在にするための最善策だと見ています。将来のAIシステムの中核を担う技術として、その開発に大きな期待が寄せられています。 AIがより賢くなることで、人間の制御を離れるリスクを懸念する声もあります。しかしルカン氏は、この点について楽観的です。人間社会が法や規範で秩序を保ってきたように、AIにも逸脱を防ぐための「ガードレール」を設計段階で組み込むことが可能だと説明。AIは設計上、その制約を超えることはできないと述べました。 Amazon Robotics社の最高技術責任者タイ・ブレイディ氏も、生成AIの可能性を強調しました。同社はすでに倉庫内で生成AIを活用し、ロボットの移動経路や荷物の処理を最適化しています。今後は、人間の作業効率を高める「協働ロボット」の分野で、生成AIが革新を牽引すると予測しています。 MITのサリー・コーンブルース学長は、生成AIの技術的・倫理的課題の解決には、大学と産業界の連携が不可欠だと述べました。今年2月に発足した同コンソーシアムがその役割を担います。シンポジウムでは、AIのバイアスや幻覚を軽減する新システムなど、MITの最新研究も紹介されました。 一日にわたる議論の締めくくりとして、コンソーシアムの共同リーダーであるヴィヴェック・ファリアス教授は、参加者が「可能性と、それを現実のものにするための緊急性」を感じることを期待すると語りました。生成AIの健全な発展に向け、産学連携の重要性が改めて示された形です。

医療AI、女性や少数派の症状を軽視するバイアスが判明

医師が利用するAIツールが、女性やエスニックマイノリティの健康状態を悪化させるリスクが指摘されています。米英の複数の研究で、多くの大規模言語モデル(LLM)がこれらの患者の症状を軽視する傾向が示されたのです。これは、社会に存在する治療格差のパターンをAIが再生産・強化する可能性を示唆します。 マサチューセッツ工科大学(MIT)の研究によると、OpenAIGPT-4MetaLlama 3などは、女性患者に対して明らかに低いレベルの治療を推奨しました。症状によっては、専門医の受診ではなく自宅での自己治療を提案するなど、診断の深刻さを過小評価する傾向が見られたといいます。 同大学の別の研究では、人種によるバイアスも明らかになりました。GPT-4などのモデルは、精神的な不調を訴える黒人やアジア系の人々に対し、他の人種に比べて「共感」の度合いが低い回答を生成。これにより、患者が受けるサポートの質が人種によって左右される危険性が懸念されます。 同様の傾向は、ロンドン・スクール・オブ・エコノミクスの研究でも確認されました。ソーシャルワーカーの支援に使われるGoogleGemmaモデルは、男性と比較して女性の身体的・精神的な問題を軽視する形でケースノートを要約・生成する傾向があったと報告されています。 現在、MicrosoftGoogleなどの巨大テック企業は、医師の負担軽減と治療の迅速化を目指し、医療AI製品の開発を急いでいます。しかし、これらのツールに潜むバイアスは、特定の患者層に不利益をもたらしかねません。AIの恩恵を公平に享受するため、開発と導入にはより慎重な検証と対策が不可欠です。

LLM開発費を最大化する効率的スケーリング則、MITが提言

研究の核心と課題

LLM開発の高額な計算資源コストへの対処法
小規模モデルから大規模モデルの性能を予測
従来の予測手法は体系的な検証が不足

効率を高める指針

多様なサイズでモデル数を優先して訓練
最終損失でなく中間チェックポイントを活用
ターゲットモデルの部分学習(30%程度)でコスト削減

データ選定と精度

初期のノイズデータ(100億トークン未満)を破棄
目標精度と計算予算を事前に決定

マサチューセッツ工科大学(MIT)の研究チームは、大規模言語モデル(LLM)の訓練コストを最適化するための「スケーリング則」構築ガイドを公開しました。これは、数百万ドルにも上る開発費を効率的に使い、大規模モデルの性能を高い信頼性で予測するための体系的な指針を提供します。AI開発における予算と性能のトレードオフを解消する画期的な分析です。

スケーリング則とは、小さなモデルの学習結果から、同じモデルファミリーのより大きなターゲットモデルの性能(特に損失)を推定する手法です。従来、この手法は開発者ごとに異なり、その有効性がブラックボックス化していました。今回の研究では、40種類のモデルファミリー、485の独自モデルを分析し、1,000以上のスケーリング則を検証しています。

最も重要な提言の一つは、予測の堅牢性を高めるために、多様なサイズのモデルを少数訓練することを優先すべき点です。単に非常に大規模なモデルを訓練するよりも、5つ程度の小規模モデルを分散して訓練することが、スケーリング則の精度向上に寄与すると結論付けています。

また、リソースを効率的に活用するため、ターゲットモデルをデータセットの約30%まで部分的に訓練し、そのデータを使って性能を外挿することで、大幅なコスト削減が可能となります。加えて、訓練過程の最終損失だけでなく中間チェックポイントのデータを利用することが予測信頼性を高める鍵です。

ただし、訓練開始直後(100億トークン以前)のデータはノイズが多く、予測精度を低下させるため破棄すべきだと研究者は推奨しています。開発者は、予測誤差率(ARE)が4%以内であれば最良、20%以内であっても意思決定に十分役立つ精度として目標設定が可能です。

興味深い発見として、完全に訓練されたモデルの「中間段階」のデータが、別のターゲットモデルの予測に再利用できることが判明しました。これは、追加コストなしに予測リソースを増強できることを意味します。また、小規模モデルと大規模モデルの挙動は予想以上に類似していることも確認されました。

研究チームは今後、モデルの訓練時間だけでなく、モデルの応答時間(推論時間)に関するスケーリング則へと分析を拡大する計画です。ユーザーの新しいクエリに対して「最適な思考量」を予測する技術は、リアルタイムでのAI活用においてさらに重要性を増すと期待されています。

MIT、AIで胎児の動きを精密再現 3Dモデル「Fetal SMPL」を開発

診断精度を革新

従来の3D MRIは医師の解釈が困難
胎児のランダムな動きのモデル化が課題
より詳細な胎児の健康診断を支援

技術的コアと精度

MIT CSAILなどが成人モデルから適合
2万件のMRIボリューム機械学習
23関節を持つ骨格構造を3Dで再現
平均誤差はわずか約3.1ミリメートル

応用と将来性

頭部や腹部サイズの正確な測定が可能
内臓構造の容積モデル化を今後目指す

マサチューセッツ工科大学(MIT)のコンピューター科学・人工知能研究所(CSAIL)などは、胎児の健康診断を革新する機械学習ツール「Fetal SMPL」を開発しました。これはMRIスキャンデータから、胎児の動きや体形を高精度に再現した詳細な3Dモデルを生成します。従来の3Dスキャン画像は医師にとって解釈が難しく、診断のボトルネックとなっていましたが、本ツールはその課題を解決します。

Fetal SMPLは、成人向けの人体モデリング技術「SMPL」を胎児用に適合させたものです。約2万件のMRIボリュームで訓練され、彫刻のような3D表現を生み出します。モデル内部には23の関節を持つ「キネマティックツリー」と呼ばれる骨格構造があり、これを利用して胎児のリアルなポーズと動きを再現できる点が大きな特長です。

このモデルは実証実験において、非常に高い精度を示しました。これまでに学習していないMRIフレームに対しても、胎児の位置とサイズを正確に予測し、平均誤差はわずか約3.1ミリメートルに留まっています。これにより、医師は胎児の頭部や腹部のサイズなどを正確に測定し、同年齢の健康な胎児のデータと比較した精密な診断が可能になります。

研究チームは現在、Fetal SMPLが表面的な分析に留まっている点を改善するため、内臓などの内部解剖学的な構造をモデル化する「容積(volumetric)」対応を目指しています。この進化により、肝臓や肺などの発達状況もモニタリングできるようになります。本技術は、ヒトの成長と運動が様々な条件でどのように影響を受けるかを長期的に研究する上でも画期的な一歩です。