Meta、AI活用のコンテンツ監視体制へ移行を発表

AI監視の成果

性的勧誘コンテンツ検出量2倍
誤判定率60%以上削減
1日約5000件の詐欺を阻止
有名人なりすましアカウントの検出強化

運用体制の変化

外部委託への依存を段階的に縮小
人間は最高リスク判断と上訴審査に集中
Meta AIサポートアシスタントを全世界展開

背景と課題

昨年からコンテンツ規制緩和を推進
児童保護めぐる訴訟にも直面
詳細を読む

Metaは2026年3月、自社アプリ全体で高度なAIシステムによるコンテンツ監視を段階的に導入すると発表しました。テロ、児童搾取、薬物、詐欺などの違反コンテンツの検出・削除を、従来の外部委託からAI主導の体制へ移行する方針です。

初期テストでは、AIシステムが従来の人間レビューチームと比較して成人向け性的勧誘コンテンツの検出量を2倍に増やし、同時に誤判定率を60%以上削減する成果を上げています。また有名人のなりすましアカウントの特定やアカウント乗っ取りの防止にも効果を発揮しています。

詐欺対策においても、ログイン情報を騙し取ろうとする試みを1日あたり約5000件阻止できる能力を示しています。Metaは現行手法を一貫して上回る性能が確認されたアプリから順次、新システムを展開する計画です。

人間の専門家は引き続きAIシステムの設計・訓練・監督・評価を担い、アカウント停止の異議申立てや法執行機関への報告など、最もリスクの高い重要な判断に関与します。あわせてMeta AIサポートアシスタントFacebookInstagramで全世界に展開し、24時間対応のサポートを提供します。

この動きは、Metaが昨年から第三者ファクトチェックを廃止しコミュニティノート方式へ移行するなど、コンテンツ規制の緩和を進めてきた流れの中にあります。一方で、SNSが子どもや若年層に与える悪影響をめぐる複数の訴訟にも直面しており、AI監視の精度向上が問われる局面となっています。