投稿

10月 28, 2025の投稿を表示しています

Wikipediaの衰退はもっと前から始まっていた

「LLMのせい」にするには無理がある 最近、「LLM時代でウィキペディア苦境 人間の閲覧数8%減、財団が警鐘」というニュースが報じられた。ウィキメディア財団によると、2025年3月から8月のあいだに、Wikipediaを閲覧する「人間のアクセス数」が前年同期比で約8%減少したという。財団はその原因を、生成系LLM(ChatGPTなど)や検索エンジンによる“直接回答”の増加にあるとし、「LLMがウィキペディアから読者を奪っている」と警鐘を鳴らしている。 確かに、LLMの登場によって「自分で検索しなくても答えが返ってくる」時代になったことは否定できない。だが、それだけでWikipediaの閲覧減少を説明するのは無理がある。むしろ、Wikipediaの信頼性や運営構造に起因する“内部的な衰退”は、LLMが登場するずっと以前から始まっていたのではないか――。この記事では、その点を掘り下げて考えてみたい。 「LLMが悪い」では片づけられない理由 まず、LLMの普及を閲覧減少の主要因とする財団の説明には、いくつかの矛盾がある。LLMを日常的に使っている人はまだ世界人口の一部に過ぎず、ほとんどの人は依然として検索エンジンから情報を得ている。また、ChatGPTやGeminiといったモデルも、学習データとしてWikipediaを利用しており、情報源としての価値は依然として高い。 にもかかわらず「LLMのせい」と断定するのは、責任を外部に転嫁しているようにも見える。むしろ、Wikipedia自身が読まれなくなった理由は、内部の構造にある。それは“信頼性の低下”と“編集文化の硬直化”だ。 「嘘の百科事典」という現実 Wikipediaの最大の特徴は「誰でも編集できる」ことだ。だが、それは同時に「誰でも嘘を書ける」ことを意味する。特に人物ページでは、本人や関係者が匿名で編集し、経歴や肩書きを誇張する“自己宣伝”が横行している。実際に、私の知人のWikipediaページにも、事実と異なる経歴が堂々と書かれている。しかもそれを訂正しても私には何の得もなく、相手にも罰がない。結果として、嘘は野放しになり、真実は訂正されないまま残る。 Wikipediaでは「中立性」「検証可能性」といった理念が掲げられているが、それを守るのは結局、無償のボランティアだ。嘘を直す側には報酬...