404 Mediaは3月4日(米国時間)、「AI Translations Are Adding ‘Hallucinations’ to Wikipedia Articles」において、Wikipediaなどのオープンプラットフォームの改善を目指す非営利団体「Open Knowledge Association(OKA)」の作業に誤りが多発し、OKAの寄稿者が制限されたと報じた。

Wikipediaは世界最大規模のオンライン百科事典であり、世界中のボランティアが執筆している。その信頼性を維持するため、編集者による監視や修正が日常的に行われている。今回、OKAの編集者がAIを活用してWikipediaの記事を翻訳した結果、ハルシネーションや翻訳エラーが混入し、百科事典としての信頼性を損なう事例が報告された。

  • Wikipediaの記事編集画面。AI翻訳を巡る議論が起きている 出典:Wikimedia Commons

    Wikipediaの記事編集画面。AI翻訳を巡る議論が起きている 出典:Wikimedia Commons

AIを使ってWikipedia翻訳を進めていたOKA

OKAはWikipediaなどの改善に取り組む作業を生業とし、作業に従事する編集者に月額の報酬を支払っている。この改善作業(主に英語への翻訳)には大規模言語モデル(LLM: Large Language Model)が活用され、作業の多くが自動化されている(参考:「OKA – Disseminating free content on Wikipedia and open platforms through targeted funding」)。

近年の生成AIは自動翻訳の精度が向上しており、簡易な翻訳では十分に活用できる段階にある。しかし、ハルシネーションや情報の欠落・追加などの問題が発生する可能性は依然として残る。今回の翻訳作業でも同様の問題が繰り返し発生し、検証を十分に行っていないOKAの運営体制が議論となった。

OKA編集者を巡る問題はどのように拡大したのか

議論の詳細は「Wikipedia:Administrators' noticeboard/Archive378 - Wikipedia」において、一連の流れとしてまとめられている。概要は次のとおり。

  • OKAはスイスに拠点を置き、2022年に個人によって設立された。初期の常勤翻訳者(編集者)は5名とされる
  • 当初から機械翻訳が使用され、多くの問題が指摘されていた。創設者は「翻訳者がすべての翻訳を手動で確認する」と説明したが、結果の正確性は保証していない
  • 同じ議論の中で、翻訳者の言語能力不足や、重複記事・低品質ページの存在も指摘された
  • その後も問題の指摘は続き、2025年にはLLMを用いた英語翻訳で品質問題が報告された
  • 2026年に入ると、OKAの編集者が繰り返し問題を引き起こし、警告を無視しているとの報告が出た
  • 創設者と編集者が議論に参加し、上書きされたコンテンツの復元を約束したが、その後もAI翻訳の誤りが相次いで発見された
  • 議論では「LLM特有のエラー」「翻訳中の記事の上書き」「レビュー困難」などの問題が指摘された
  • OKAが編集者に複数のメールアカウント作成を指示し、LLMの利用制限を回避させていたことも発覚
  • 採用時に母国語や英語能力の確認を行っていなかったことも明らかになった

WikipediaがOKA編集者に課した新ルール

この後も長い議論が続くが、Wikipediaは一般人が作成する百科事典に過ぎないため、ミスもプロセスの一部として認め、OKA編集者に適用するルール作りが提案される。その結果、AI翻訳を積極的に活用するOKA編集者に限定の次のルールが課された。

  • 検証に失敗したコンテンツについて半年間に4回警告を受け、さらに別の問題が発見された場合は警告なしでブロックされる
  • ブロックされたOKA翻訳者が追加したコンテンツは、信頼できる編集者が確認しない限り削除される可能性がある
  • このルールは2026年2月22日から適用され、過去の編集には遡及されない

AIの検証にも限界、人による確認が重要

議論の中でOKAの創設者は、問題が生じた事例は短時間で大量の作業を行った翻訳者によるもので、組織として速度を求めているわけではないと釈明した。また、人による確認工程を維持しており、経験豊富な編集者が定期的に点検していると説明した。

さらにOKAは、翻訳後の草稿を別のAIモデルで照合する追加工程を導入したと発表した。内容の差異や欠落を検出するための手順で、初期の検証では一定の効果が確認されたという。ただし、この工程は完全ではなく、人による確認を置き換えるものではないとしている。

404 Mediaは、AIの出力をAIでチェックする方法についてエラーが発生しやすい可能性を指摘している。同社のテストでは少なくとも10%のエラー率が確認されたという。

今回のWikipediaの事例は、AI活用が広がる中で、品質管理の難しさと人間による監督の重要性を改めて示すものとなった。AI翻訳は作業効率を高める一方で、誤りの拡散を招く可能性もある。Wikipediaの対応は、AI活用と品質維持の両立を模索する取り組みの一例といえる。