MITが臨床AIの記憶リスクを研究:患者プライバシーの新たな脅威
出典:MIT News
詳細を読む
MITの研究チームは、臨床AIシステムが学習データに含まれる患者情報を「記憶」するリスクを体系的に調査した研究を発表した。メンバーシップ推論攻撃(Membership Inference Attack)を使用することで、AIモデルがどの患者データを学習したかを高い確率で特定できることが示された。
この問題が特に深刻なのは、電子カルテ・医療画像・臨床ノートといったセンシティブな医療データで学習した診断AIや予測モデルだ。攻撃者がモデルのAPIにアクセスできる場合、特定の患者の医療情報が学習データに含まれているかどうかを推定できる。
従来の対策として行われてきた学習データの匿名化・仮名化だけでは不十分であることも示された。モデルが一意な特徴(稀な病態・特殊な薬剤の組み合わせなど)を記憶してしまう場合、匿名化を施しても個人を特定できる可能性がある。
技術的な解決策として、差分プライバシー(Differential Privacy)による学習がより有望な対策として挙げられている。確率的ノイズを加えることで個人情報の記憶を防ぎながら、モデルの有用性を一定程度保つことができる。
この研究は医療AIの規制フレームワーク構築に重要な示唆を与える。HIPAA・EU GDPRなどの既存医療プライバシー規制がAI時代に十分対応できているかの見直しが求められており、患者の同意取得と記憶リスクの開示が新たな倫理的要件として浮上している。