MIT、数百変数の最適化を最大100倍高速化する基盤モデル手法を開発

手法の核心

表形式基盤モデルを代理モデルに活用
重要変数を自動特定し探索を集中
再学習不要で異なる問題に即適用
従来比10〜100倍の高速化を実証

応用と展望

電力系統や衝突安全設計で検証
高次元ほど性能優位が拡大
創薬・材料開発への応用を視野
将来は数百万変数規模を目指す
詳細を読む

MITの研究チームは、数百の設計変数を持つ複雑なエンジニアリング問題を従来手法の10〜100倍の速度で解く新たな最適化手法を開発しました。国際学習表現会議(ICLR)で発表される本研究は、古典的なベイズ最適化基盤モデルを組み合わせた点が革新的です。

本手法の中核は「表形式基盤モデル」と呼ばれる生成AIです。大規模言語モデルがテキストを扱うように、この基盤モデルは膨大な表形式データで事前学習されており、スプレッドシート版ChatGPTとも形容されます。エンジニアリング分野ではテキストより表形式データが一般的であり、実務との親和性が高い点が特徴です。

従来のベイズ最適化では反復ごとに代理モデルの再学習が必要で、変数が増えると計算コストが急増していました。新手法では事前学習済みの基盤モデルをそのまま使用するため再学習が不要であり、異なる問題にも一つのアルゴリズムで対応できます。設計空間のうち結果に最も影響する変数を自動的に特定し、探索を集中させる工夫も施されています。

60件のベンチマーク問題で5つの最先端手法と比較した結果、電力系統設計や自動車の衝突試験シミュレーションなど現実的な課題で一貫して最良の解を高速に発見しました。問題の次元数が増えるほど優位性が拡大する傾向も確認されています。ただしロボット経路計画など一部の課題では既存手法を上回れず、訓練データの網羅性が課題として残ります。

研究チームは今後、表形式基盤モデルの性能向上手法を研究するとともに、数千から数百万変数を持つ艦船設計などへの適用を目指しています。基盤モデルを言語や画像認識だけでなく科学・工学ツール内部のアルゴリズムエンジンとして活用する潮流を示す成果として、創薬や材料開発など高コスト評価を伴う分野への波及が期待されます。