MIT、AI倫理を自動評価する新手法を開発

SEED-SETの仕組み

客観指標と主観価値を分離評価
LLMを人間評価者の代理に活用
階層構造で評価回数を大幅削減
事前データ不要で複数目的に適応

実証と今後の展望

電力網・交通の現実的シナリオで検証
基準手法の2倍以上の最適テスト生成
低所得地域への不公平配電を自動検出
大規模LLM意思決定評価へ拡張予定
詳細を読む

MITの研究チームは、自律型AIシステムの倫理的整合性を自動評価する新手法「SEED-SET」を開発しました。電力配分や交通制御など高リスク領域でのAI判断が公平かどうかを、展開前に体系的に検証できます。

従来の評価手法は事前収集データに依存し、主観的な倫理基準のラベル付けが困難でした。SEED-SETは客観的な性能指標と主観的な倫理基準を階層的に分離し、少ない評価回数で最も情報価値の高いシナリオを効率的に特定します。

主観評価には大規模言語モデル(LLM)を人間の代理として活用します。各利害関係者の倫理的選好を自然言語プロンプトに変換し、シナリオ間の比較判定を行うことで、人間評価者の疲労による一貫性低下の問題を回避しています。

電力網と都市交通ルーティングの実験では、同じ時間内に基準手法の2倍以上の最適テストケースを生成し、他手法が見落としたシナリオも多数発見しました。たとえば高所得地域を優先するピーク時配電の不公平を自動的に検出できました。

研究チームは今後、実際の意思決定に役立つかを検証するユーザースタディを実施予定です。さらに大規模問題やLLMの意思決定評価にも拡張する計画で、研究は国際学習表現会議(ICLR)で発表されます。