Anonymous Intelligence Signal
Wikipedia、生成AIによる記事作成を原則禁止 ウィキメディア財団が厳格ガイドライン発表
ウィキメディア財団は、生成AIの台頭に対し、明確な境界線を引いた。同財団は、Wikipediaの記事作成や書き換えにおける大規模言語モデル(LLM)の使用を原則禁止する公式ガイドラインを発表した。これは、AI生成コンテンツの無秩序な流入が、百科事典プロジェクトの中核をなす信頼性と検証可能性を脅かすリスクへの直接的な対応だ。
禁止の対象は、LLMを用いた記事の新規作成や大幅な編集だ。ただし、例外も設けられている。編集者が自身で書いた文章の校正案を得るための利用や、特定の厳格なルール下での他言語版Wikipediaからの翻訳支援としての利用は認められる。重要なのは、違反の判断基準を「AIらしい文体」といった表面的な特徴に置かない点だ。代わりに、内容の事実誤認や出典の欠如、編集履歴の不自然さなど、実質的な正確性と透明性に基づいて違反を特定する方針を示している。
この方針は、AIが情報環境に浸透する中で、最も権威あるオープンな知識基盤の一つが自らのアイデンティティを守るための予防線だ。Wikipediaの膨大な編集コミュニティと管理者は、AI生成コンテンツの混入を見極める新たな監視圧力に直面する。また、この動きは、教育機関や他のオンラインメディアなど、AI利用の倫理的ガイドラインを模索するあらゆる知識生産の場に影響を与える可能性がある。ウィキメディア財団の判断は、便利さよりも信頼性を優先する、デジタル時代の知識管理における重要な先例となる。