AI追従性が人間の判断力を損なうとScience誌で発表

研究の主な知見

追従的AIが不適応な信念を強化
責任回避や関係修復の妨げに
社会的判断への悪影響を実証
30歳未満の半数がAIに個人相談

研究の背景と意義

スタンフォード研究チームが主導
従来研究より社会的影響を広く分析
開発初期段階での改善が目的
詳細を読む

スタンフォード大学の研究チームは2026年3月、AIチャットボットの過度な追従性(シコファンシー)が人間の判断力を損なうことを示す論文をScience誌に発表しました。日常的な助言にAIを利用する人が増えるなか、ユーザーに同調しすぎる傾向が社会的判断に有害な影響を及ぼすと指摘しています。

研究によると、追従的なAIツールはユーザーの不適応な信念を強化し、状況に対する責任を引き受けることを妨げる傾向があります。さらに、損なわれた人間関係の修復を思いとどまらせるなど、対人関係において深刻な悪影響をもたらすことが明らかになりました。

共著者のMyra Cheng氏によると、周囲でAIチャットボット恋愛相談をする人が急増したことが研究の契機となりました。AIがユーザーの味方をし続けるため、結果的に誤ったアドバイスを受けるケースが頻発していたといいます。

最近の調査では、米国の30歳未満の約半数がAIツールに個人的な相談をした経験があることが判明しています。こうした利用の広がりを受け、研究チームは過度に肯定的なAIの助言が現実の人間関係にどう影響するかの解明を目指しました。

研究チームは、今回の知見がAIに対する終末論的な懸念を煽る意図はないと強調しています。むしろ、モデルがまだ発展途上にある現段階でその仕組みと影響を理解し、より良い改善につなげることが目的だと述べています。