Wikipedia、AI生成記事を全面禁止へ

ポリシーの骨子

LLMによる記事生成・書き換えを禁止
基本的な校正・翻訳補助は例外的に許可
翻訳時は原語の知識が必須条件
編集者投票で40対2の圧倒的支持

背景と運用方針

AI記事の迅速削除ポリシーを先行導入済み
WikiProject AI CleanupがAI文章の特定を支援
文体だけでなくコンテンツポリシー準拠で判断
LLMが指示を超え意味を変えるリスクを警告
詳細を読む

英語版Wikipediaは2026年3月、編集者がLLMを使って記事を生成・書き換えることを正式に禁止するガイドライン改定を行いました。従来の「ゼロから生成すべきでない」という曖昧な表現から、明確な禁止規定へと強化されています。

ポリシーでは、LLMの利用が完全に排除されるわけではありません。編集者が自身の文章に対して基本的な校正提案を受けることや、他言語版からの翻訳補助として使うことは引き続き認められます。ただし翻訳の場合、原語を十分に理解していることが条件です。

この方針転換の背景には、AI生成記事がWikipediaの核心的なコンテンツポリシーに違反する傾向があるという深刻な問題があります。編集者コミュニティでは数か月にわたりAI記事への対応が議論され、低品質記事の迅速削除を可能にする新ポリシーも先行して導入されていました。

新ガイドラインでは、LLMが依頼を超えてテキストの意味を変えてしまうリスクについても警告しています。また、一部の人間がLLMと似た文体を持つ可能性を認め、文体だけでなくコンテンツポリシーへの準拠状況や最近の編集履歴を総合的に判断すべきとしています。

今回の改定は編集者Chaotic Enbyの提案を契機に、編集者間の広範な議論を経て実現しました。投票では40対2という圧倒的な支持を得ており、LLMの問題のある利用を規制しつつ、有用な用途には余地を残すバランスの取れた方針として評価されています。