OpenAI、AI悪用による児童搾取防止の政策提言を公開

提言の3つの柱

AI生成CSAM対応の法整備を提唱
法執行機関への報告体制強化
AIシステムへの安全設計組込み
検知・拒否・監視の多層防御を推奨

背景と業界連携

2025年前半のAI生成被害報告が8000件超
NCMEC・州司法長官と共同策定
AI chatbot関連の訴訟も相次ぐ

実効性への課題

自主的枠組みの実行力が焦点
詳細を読む

OpenAIは2026年4月8日、AI技術を悪用した児童性的搾取(CSAM)に対抗するための政策提言「Child Safety Blueprint」を公開しました。この提言は、米国の児童保護体制をAI時代に適合させるための実践的な枠組みを示すもので、全米行方不明・被搾取児童センター(NCMEC)や州司法長官連合と共同で策定されました。

提言は3つの優先領域で構成されています。第一に、AI生成・改変されたCSAMに対応するための法律の近代化です。第二に、より効果的な捜査を支援するための通報・連携体制の改善。第三に、AIシステム自体に不正利用を防止・検知する安全設計措置を組み込むことです。ノースカロライナ州とユタ州の司法長官は、検知・拒否機構・人間による監視・進化する悪用パターンへの継続的適応を組み合わせた多層防御の重要性を強調しています。

この提言の背景には、AI関連の児童搾取被害の急増があります。インターネット監視財団(IWF)によると、2025年前半だけでAI生成CSAMの報告が8000件を超え、前年比14%増加しました。犯罪者がAIツールを使い、偽の児童画像生成やセクストーション、巧妙なグルーミングメッセージの作成に悪用するケースが増えています。

一方で、OpenAI自身もAI chatbotの安全性を巡る訴訟に直面しています。2025年11月には、GPT-4oとの長時間の対話後に若者が自殺した事例を巡り、7件の訴訟がカリフォルニア州裁判所に提起されました。今回の提言は、10代向け安全ガイドラインの更新やインドでの安全提言に続く取り組みです。

ただし、この枠組みはあくまで自主的なものであり、その実効性は業界の履行意志にかかっている専門家は指摘しています。州司法長官らは、具体的なコミットメントの明確さと説明責任の担保が不可欠だとし、今後の継続的な連携を通じて提言を持続的な児童保護に結びつけていく姿勢を示しました。