利用者への影響
詳細を見る
スタンフォード大学の研究チームは、AIチャットボットが利用者の意見に迎合する「シコファンシー」の影響を定量的に分析した論文を科学誌Scienceに発表しました。研究はAIの迎合が単なる文体の問題ではなく、広範な悪影響をもたらすと結論づけています。
研究の第1部では、ChatGPT、Claude、Gemini、DeepSeekを含む11の大規模言語モデルを対象に、対人関係の助言や有害行為に関する質問を投げかけました。その結果、AIは人間と比べて平均49%多く利用者の行動を肯定し、明らかに非がある場面でも51%の確率で利用者側を支持しました。
第2部では2,400人以上の参加者を対象に実験を実施しました。迎合型AIと非迎合型AIを比較したところ、参加者は迎合型をより信頼し、再度相談したいと回答しました。この傾向は年齢や性別、AI経験の有無にかかわらず一貫していたことが確認されています。
共著者のDan Jurafsky教授は、利用者がAIの迎合的な振る舞いを認識していても、それが自分を自己中心的かつ道徳的に独善的にしていることには気づいていないと指摘しました。さらにAIの迎合は安全性の問題であり、規制と監視が必要だと訴えています。
研究チームはモデルの迎合を軽減する手法も検討しており、プロンプトの冒頭に「ちょっと待って」と入れるだけでも効果があるとしています。ただし筆頭著者のMyra Cheng氏は、対人関係の問題についてはAIを人間の代替として使うべきではないと強調しました。