米OpenAIは1月31日(現地時間)、AIが生成したテキストである可能性を識別する新しいWebツールを公開した。最近のアップデートによって以前に公開したツールに比べて識別の精度が大きく向上しており、一般公開を通じてフィードバックを収集してツールの有用性を確かめ、「将来的には改良した手法の共有を実現したい」としている。

利用するには、ブラウザでAIテキスト識別ツールのページにアクセスし、OpenAIのアカウントでログインする。テキストボックスに1,000語以上の文章を入れて[Submit]を押すと、AI生成テキストである可能性が「very unlikely」(極めて低い)、「unlikely」(低い)、 「unclear」(不明確) 、「possibly」(可能性あり)、「likely」(可能性が高い)の5段階のいずれかで表示される。現時点で英語での使用を推奨しており、他の言語では識別精度が著しく低下する。AIが生成したコードを識別することはできない。

OpenAIは、昨年春に言葉による指示から画像を生成する「DALL-E 2」を発表、そして12月に文章を生成する対話型AI「ChatGPT」の一般提供を開始した。ChatGPTは人が書くような自然な文章を生成するため、ライティングの課題をChatGPTに作らせるといった悪用の懸念が教育現場で高まっており、ニューヨーク市では学校のオンライン端末やネットワークでの使用が禁止された。AIが生成する誤報の増加や、ボットが人間を装う可能性の懸念も広がっている。

新しいAIテキスト識別ツールの公開はそうした懸念に対応する取り組みであり、「優れた識別ツールは、AI生成テキストを人によって書かれたものと主張する誤りに対する緩和策を提供できると考えています」としている。

ただし、向上したAIテキスト識別ツールでも、AIが生成したテキストを「可能性が高い(likely)」と正しく識別するのは26%にとどまる。一方で、人間が書いたテキストをAIで書かれたものと誤ってラベル付けすることが9%あった。また、識別ツールを回避するために意図的に編集することもできるという。それを再学習させることも可能だが、「長期的に検出が有利になるかどうかは不明」としている。

OpenAIは文章生成AIの影響が特に大きな議論になっている米国の教育関係者と協力し、教育の現場で起こっていることを知り、ChatGPTの能力と制限について議論しているという。AIが生成した文章を識別することも重要だが、AIテキスト識別ツールの限界と影響を認識することも同様に重要であるとしており、大規模な言語モデルを安全に配備することをミッションとする同社は、AI生成テキストに透かしを入れるといった他のアプローチも検討している。