Meta監督委員会がディープフェイク対策の抜本改革を要求

監督委の主な指摘

自己申告依存の検出体制に限界
紛争時の偽情報拡散速度に未対応
TikTokコンテンツ越境拡散が課題
C2PA標準の実装が不十分

求められる対応策

AI生成コンテンツ独立基準新設
リスクAIラベルの適用拡大
違反時の罰則透明化を要求
自社AI出力のラベル整備も急務
詳細を読む

Meta監督委員会は、Metaディープフェイク検出体制が「十分に堅牢でも包括的でもない」と指摘し、AI生成コンテンツのラベル付けと検出方法の抜本的な見直しを求めました。この勧告はFacebookInstagram、Threadsの全プラットフォームが対象です。

調査のきっかけは、昨年イスラエルの建物被害を捏造したAI動画Metaのプラットフォームで拡散された事案です。監督委は中東での「大規模な軍事的緊張」が高まる今、正確な情報へのアクセスが人々の安全に不可欠だと強調しています。

監督委は現行のラベル付けがユーザーの自己申告に過度に依存していると批判しました。問題のコンテンツTikTokで発生し、その後FacebookInstagram、Xに拡散しており、プラットフォーム横断の課題も浮き彫りになっています。

具体的な改善策として、ディープフェイクに対応した誤情報ルールの改定、AI生成コンテンツ専用のコミュニティ基準の新設、AI検出ツールの強化、そしてC2PA(Content Credentials)の採用拡大が挙げられています。

特に懸念されているのは、Meta自社AIツールで生成したコンテンツにさえC2PA標準を一貫して適用していない点です。Instagramのモッセリ責任者も昨年、写真・動画の真正性確認の改善が必要だと認めており、監督委の勧告は社内の問題意識とも一致しています。