Windows Centralは3月30日(米国時間)、「Microsoft's AI slop is infecting GitHub - Copilot is now injecting ads into pull requests (Update)|Windows Central」において、GitHub Copilotがプルリクエストに広告を挿入したと伝えた。

GitHubはミスを認めて3月30日までにこのAI機能を停止したが、それまでに150万件以上の広告が挿入されたという。

  • GitHub Copilotのプルリクに広告? 引用:Zach Manson氏

    GitHub Copilotのプルリクに広告? 引用:Zach Manson氏

150万件超の広告は何が表示されていたのか?

このことはソフトウェア開発者のZach Manson氏の報告により明らかになった。同氏のチームメンバーの1人がプルリクエストの誤字を修正するために、Copilotに修正の指示を出したところ、Copilotは誤字を修正したが、同時にCopilotおよびRaycastの広告を説明欄に追加したという。

Neowinが詳細な調査結果を報告している(参考:「Microsoft Copilot is now injecting ads into pull requests on GitHub - Neowin」)。問題の広告文を読むとRaycastが広告を挿入したかのようにみえるが、元のマークダウンを分析するとMicrosoft Copilotにより挿入された可能性が高いとされる。

同様の広告はGitHubプルリクエスト(Pull Request、PR:コード変更の提案機能))から150万件以上発見され、Slack、Teams、VS Code、Visual Studio、JetBrains IDE、Eclipseなどを推奨するものまで確認されている。一部は無償で配布されているアプリのため、広告としての意図が不明瞭となっている。

なぜCopilotはプルリクに広告を挿入したのか?

GitHubの開発者リレーションズヴァイスプレジデントを務めるMartin Woodward氏は3月30日、同機能を停止したことをXに投稿し、予期しない不具合だったことを発表した。

本来は製品のヒントを挿入する機能として実装したもので、Copilotが作成したプルリクエストに対しては許容範囲に収まるヒントを生成していたという。しかしながら、適用範囲を「Copilotをメンションするあらゆるプルリクエスト」に拡大したところ、不快な動作(広告に近い表示)をしたとされる。

なぜこの問題は危険なのか?AIの自己学習が招くリスクとは

この不具合について、Windows CentralはAI特有の追加の問題を引き起こす可能性を指摘している。GitHubはAIのトレーニングに個人向けプランのコンテキストを使用しているが、このコンテキストにAIの生成物が混ざると、AIの生成物を使用してAIが学習することになる。

この自己学習の循環はリスクがあり、1度ハルシネーションが起きると誤りの連鎖を引き起こし、誤情報を生成する可能性が高くなる。GitHubはAIの生成文にコメントを挿入し、識別できるように配慮していたようだが、オンライン上に投稿される生成物の増加を考えると、AIが生み出す誤情報のリスクは日々高まっている可能性がある。

なぜ開発者にとって問題なのか?信頼性への影響は

GitHub Copilotがプルリクエストに意図しない内容を挿入したことは、単なる不具合にとどまらず、ソフトウェア開発の信頼性に直接影響を及ぼす可能性がある。

プルリクエストは、コード変更の内容や意図をチーム内で共有し、レビューを通じて品質を担保するための重要なプロセスである。この説明欄に関係のない情報や広告が混入すると、開発者はその内容が人間による記述なのか、AIによる生成なのかを判断しなければならなくなる。

その結果、レビューの効率が低下するだけでなく、本来注目すべきコードの変更点が埋もれるおそれがある。特に大規模なプロジェクトでは、こうしたノイズの蓄積がレビュー品質の低下につながる可能性もある。

さらに問題なのは、AIが生成した内容に対する信頼の揺らぎである。開発者はCopilotが補助的に生成するコードや説明を前提に作業を進めるケースが増えているが、今回のように意図しない情報が混入する事例が発生すると、AIの出力そのものを疑う必要が生じる。

このような状況は、AIを活用した開発フロー全体の効率を低下させるだけでなく、最終的には人手による確認作業の増加を招き、開発生産性の低下につながる可能性がある。