MITがAI予測の説明精度を高める新手法を開発

手法の革新性

概念ボトルネックモデルを改良
モデル自身が学習した概念を抽出
スパース自己符号化器で特徴選択
多モーダルLLMが自然言語に変換
予測に使う概念を5個に制限

性能と今後の課題

鳥種・皮膚病変タスクで最高精度
情報漏洩問題が残存
ブラックボックスモデルには未到達
大規模LLMによるスケールアップ計画
知識グラフとの統合に期待
詳細を読む

MITのコンピュータ科学・人工知能研究所(CSAIL)は、AIの予測根拠を人間が理解できる概念で説明する「概念ボトルネックモデル(CBM)」の精度と説明品質を大幅に向上させる新手法を開発し、国際会議ICLRで発表した。

従来のCBMでは、臨床医などの専門家が事前に定義した概念をモデルに与えていたが、タスクに無関係な概念が含まれる場合に精度が低下するという課題があった。また、モデルが意図しない概念を秘密裏に使用する「情報漏洩」も問題となっていた。

新手法では、スパース自己符号化器と呼ばれる深層学習モデルがターゲットモデルの内部から最も関連性の高い特徴量を自動抽出し、多モーダルLLMがそれを平易な自然言語の概念に変換する。これにより、事前定義不要でタスク固有の概念を獲得できる。

精度向上に加え、各予測に使用する概念数を5個に制限することで説明の簡潔性も確保した。鳥種分類や皮膚病変識別の医療画像タスクで既存のCBMを上回る精度を達成し、概念のタスク適合性も高いことが確認された。

筆頭著者のミラノ工科大学のAntonio De Santis氏は「ブラックボックスAIのアカウンタビリティ向上につながる」と述べており、今後は情報漏洩対策の強化と大規模データセットへの適用拡張を目指す。説明可能AIと記号AIの架け橋となる研究として注目される。