EU、AI性的画像生成アプリの全面禁止へ法改正案

規制の転換点

プラットフォーム側への責任追及へ転換
同意なきヌード生成AIの市場禁止案
安全措置のあるシステムは禁止対象外
Grokスキャンダルが法改正の契機

法的圧力の拡大

米国でも差止訴訟が相次ぐ
テネシー州の少女3人が集団訴訟提起
マスク氏の子の母親が最初の提訴者に
詳細を読む

EUは2026年3月、AIを使って本人の同意なく性的画像を生成する「ヌーディファイ」システムをEU市場から全面禁止する法改正案を発表しました。ユーザーによる悪用防止の実効的な安全措置を講じたシステムは例外とされます。

この改正案は、従来の利用者個人の処罰中心の規制から、プラットフォーム側の責任を問う方向への大きな転換を意味します。Bloombergによれば、Grokのスキャンダルがまさにこの規制転換の必要性を象徴する事例として報じられています。

EU議員らは欧州委員会への質問書で、GrokをはじめとするAIヌード生成ツールの増加が、ジェンダーに基づくサイバー暴力や児童性的虐待素材の作成を助長していると警告しました。個人の加害者は特定が困難なため、根本からの防止策が必要だと主張しています。

米国でも法的圧力が高まっています。2026年1月にはマスク氏の子どもの母親であるアシュリー・セントクレア氏が最初の訴訟を提起し、3月にはテネシー州の少女3人がGrokによるCSAM出力の被害を受けた全児童を代表する集団訴訟を起こしました。

EU議会の市民的自由委員会のマクナマラ議員は、ヌーディファイアプリの禁止は市民が期待するものだと述べています。xAIGrokによる実在人物の画像生成防止に消極的な姿勢を示す中、規制強化の流れは欧米双方で加速する見通しです。