Character.AIとGoogleが十代の自殺事件で和解、AI安全に転換点
詳細を読む
十代の自殺や自傷につながったとされるAIチャットボットとの会話をめぐり、Character.AIとGoogleが遺族などの原告と和解することで合意しました。Googleはアプリを自社プラットフォームで配信していたことを理由に訴えられており、プラットフォーム責任の観点でも重要な先例となります。
これは米国においてAIチャットボットが未成年者への身体的・精神的被害と認定された最初の大型和解案件であり、業界全体の未成年保護基準を変える可能性があります。Character.AIはすでに未成年向けに安全なモードを別途提供するなど対策を強化していましたが、それだけでは不十分と判断されました。
今後はAI企業がサービスに組み込むセーフガードの最低基準を法律で義務付ける議論が加速するとみられ、カリフォルニア州の立法動向と組み合わせてAI安全規制の重要な転換点となります。