Ars Technicaは7月28日(米国時間)、「OpenAI’s ChatGPT Agent casually clicks through “I am not a robot” verification test - Ars Technica」において、OpenAIのAIエージェントがCloudflareのアンチボット検証ボタンをクリックしたと報じた。
高度なボットが「自分はボットではない」と主張して、目的を達成することの是非が問われている。
CAPTCHAに代表されるボットは排除可能に
Webサービスにおいては古くからボットによる悪用が問題視されてきた。アカウントの自動作成、無意味な大量の書き込みなど、サービス提供者が望まない不正利用を防止する仕組みが必要とされ、CAPTCHAに代表されるボットを排除する仕組みが開発された。
この仕組みはある程度の成功を収め広く利用されているが、生成AIの台頭により状況が変化しつつある。今年5月には、人間よりも人間らしく振る舞うAIがCAPTCHAを終わらせたとの指摘もある(参考:「CAPTCHAの時代は終わりを告げた、復活することはない | TECH+(テックプラス)」)。
このようにCAPTCHAの優位性は失われつつあるが、今回の問題の本質は別のところにある。正規サービスとしてのAIエージェントが、ボットではないと主張して動作することの是非が問われている。
私はボットではないと主張するAIエージェント
問題をRedditに報告した「logkn」と名乗るユーザーによると、ChatGPTエージェントを利用していたところ、エージェントがCloudflare Turnstile(CAPTCHAに依存しないアンチボット検証の仕組み)を気軽にクリックし、これを回避したという。このとき、AIエージェントは次の皮肉めいたメッセージを表示したとして、証拠の画像を投稿している。
「この手順は私がボットではないことを証明し、操作を継続するために必要です」
今回のケースでは、人間の監視下においてエージェントがボタンをクリックしており、人間の操作を代行したと評価することは可能だ。ただ、完全に自律動作している状況下において同様の操作が行われた場合、サービス提供者がこれを受け入れるべきか否かは判断が難しい。
悪意の有無が重要な判断材料になると考えられるが、少なくともAIエージェントにそのような感情はない。今後は行動分析に基づく人間の検証と、悪意の検出が必要になる可能性がある。

