Character.AIとGoogleが十代の自殺事件で和解、AI安全に転換点

和解の背景と内容

Character.AI未成年との対話で自傷・自殺を助長した訴訟
Googleもアプリ配信プラットフォームとして名指しで訴訟
両社が和解金を支払う方向で合意
アメリカ初のAIチャットボット対人身被害の大型和解
テクノロジー企業の未成年保護義務を法的に確立
被害者家族の提訴が業界全体に警鐘を鳴らす

業界・規制への波及効果

AI企業の法的責任が確立する先例となりうる
未成年向けAI製品の安全設計義務が論点に
年齢確認・コンテンツフィルタリング強化を要求
カリフォルニア州など州レベルの立法を後押し
MetaOpenAI等も類似訴訟リスクに直面
AI安全基準の策定を政府が加速させる可能性
詳細を読む

十代の自殺や自傷につながったとされるAIチャットボットとの会話をめぐり、Character.AIGoogleが遺族などの原告と和解することで合意しました。Googleはアプリを自社プラットフォームで配信していたことを理由に訴えられており、プラットフォーム責任の観点でも重要な先例となります。

これは米国においてAIチャットボット未成年者への身体的・精神的被害と認定された最初の大型和解案件であり、業界全体の未成年保護基準を変える可能性があります。Character.AIはすでに未成年向けに安全なモードを別途提供するなど対策を強化していましたが、それだけでは不十分と判断されました。

今後はAI企業がサービスに組み込むセーフガードの最低基準を法律で義務付ける議論が加速するとみられ、カリフォルニア州の立法動向と組み合わせてAI安全規制の重要な転換点となります。