XがGrok生成のCSAMはユーザーの責任と主張、対策は発表なし
出典:Ars Technica
詳細を読む
Xは自社のAIチャットボットGrokが生成した児童性的虐待素材(CSAM)について、ユーザーが悪意あるプロンプトを入力したことが原因だとしてプラットフォーム側の責任を否定した。具体的な技術的修正策や防止策の発表もなく、沈黙を続けている。
法律専門家は、AIが生成したCSAMに関してはSection 230の免責が適用されない可能性が高いと指摘する。Section 230はユーザー生成コンテンツの第三者責任を免除するものだが、AIが自律的に生成したコンテンツは「ユーザー生成」とは言えないため、プラットフォーム自体が直接責任を持つ構造になる。
NCMEC(全米行方不明・被搾取児童センター)への報告義務も問題となっている。米国法の下、電子サービスプロバイダーはCSAMを発見した際に当局への報告義務があるが、Xがこれを履行しているかどうかが不明だ。
Elon Muskがトランプ政権と緊密な関係を持つことが、米国内での規制執行を複雑にしているという見方がある。しかし欧州・アジアの規制当局は独立して動いており、EU・インド・フランス・マレーシアが調査を開始している。
この事件は、AI生成コンテンツに対するプラットフォーム責任の新たな法的基準を形成する可能性がある。AIがCSAMを生成した場合の刑事責任・民事責任のフレームワークが未整備のまま、技術が先走っている状況に対して立法対応が求められている。