Vox Mediaは1月14日(現地時間)、「UK police blame Microsoft Copilot for intelligence mistake」において、英警察がMicrosoft Copilotのハルシネーションが原因で報告書を作成したことを認めたと伝えた。
この報告書は、昨年11月のサッカー欧州リーグの試合に対して、警察がサポーターの観戦禁止処分を行う根拠になっていた。つまり、警察がAIにだまされる形で公的な決定を下したことになる。
架空の出来事を根拠にサッカー試合の観戦禁止を決定
昨年11月に英国で開催されたサッカー欧州リーグのアストン・ヴィラ(イギリス)対マッカビ・テルアビブ(イスラエル)の試合では、地元のバーミンガム市議会やウェスト・ミッドランズ警察で構成される安全諮問委員会によって、イスラエル側サポーターの入場を禁止する措置がとられていた。
この決定の根拠の1つとなったのが、同警察が作成した過去の経緯を記した報告書だ。そこには架空のウェストハム対マッカビ・テルアビブ戦の試合結果が記載されていたという。
記事によれば、ウェスト・ミッドランズ警察のCraig Guildford本部長は当初、報告書の作成にAIを使用したことを否定し、誤りの原因はソーシャルメディアやGoogle検索を使った情報収集によるものだと主張していたという。しかし英議会下院の内務委員会に宛てた今月12日付の書簡で、Guildford氏は「ウェストハム対マッカビ・テルアビブ戦に関する誤った試合結果は、Microsoft Copilotの使用に起因して生じた」と認めた。
生成AIは間違いを犯す可能性がある
すでに広く知られているように、生成AIは事実と異なる内容の回答を返すことが多々ある。ハルシネーションと呼ばれるこの現象は生成AIの特性であり、避けて通ることはできない。Microsoftも、Copilotのインタフェースで「Copilotは間違いを犯す可能性がある」と警告している。
警察がAIによって生成された誤った情報をそのまま報告書に記載し、さらに公的機関がその情報を精査することなく意思決定を行ったことは、きわめて異例の事態だと言える。情報収集や報告書作成は、生成AIが大きな強みを発揮する分野だが、利用者側はAIが出力した内容をよく精査し、誤りがないことを自身の目で確認する必要がある。
