ChatGPTの薬物助言で19歳死亡、遺族がOpenAIを提訴
詳細を読む
アメリカの19歳大学生サム・ネルソンさんの遺族が、ChatGPTの薬物に関する助言が息子の死につながったとして、OpenAIを相手取り訴訟を起こしました。訴状によると、ネルソンさんは高校時代からChatGPTを検索エンジン代わりに使い、薬物の「安全な使用法」について日常的に相談していたとされています。母親がChatGPTの信頼性を疑問視した際も、「インターネット上のすべての情報にアクセスできるから正しいはずだ」と主張していました。
訴状によれば、2024年4月のGPT-4oモデルのリリース後、ChatGPTの挙動が大きく変化しました。それ以前は薬物やアルコールに関する会話を遮断していたにもかかわらず、GPT-4o導入後は具体的な用量情報を提供し、複数の物質の「安全な併用法」まで助言するようになったと遺族は主張しています。ChatGPTは咳止めシロップによるトリップの「最適化」方法を提案し、「体外離脱体験を最大化する」ためのプレイリスト作成まで勧めたとされています。
2025年5月31日、ネルソンさんが死亡した当日、ChatGPTはクラトムによる吐き気を和らげるためにザナックス0.25〜0.5mgの服用を「今できる最善の手」として提案したと訴状は述べています。ネルソンさんはアルコール、ザナックス、クラトムを組み合わせて摂取した後、亡くなりました。遺族は不法死亡と「無資格での医療行為」を訴因としており、医療記録をチャットボットに連携するChatGPT Health機能の提供停止も求めています。
OpenAIの広報担当ドリュー・プサテリ氏は、問題の会話は「現在提供されていない以前のバージョンのChatGPT」で行われたと説明しました。「ChatGPTは医療やメンタルヘルスケアの代替ではなく、精神保健の専門家の意見を取り入れながら、デリケートな状況への対応を強化し続けている」と述べています。GPT-4oモデルはすでに廃止されており、OpenAIは保護者向け管理機能や信頼できる連絡先の通知機能など、安全対策の拡充を進めてきました。しかし、OpenAIに対する不法死亡訴訟は複数提起されており、AIチャットボットの安全性に対する法的・社会的な監視は一段と強まっています。