ChatGPTに入力するプロンプトによっては、事実でない間違った情報を出力してくることがあります。この現象をハルシネーション(幻覚)と呼び、生成AIをビジネスで活用する際の大きな課題となっています。生成AIの仕組み上、今のところ完ぺきにハルシネーションをなくすことはできません。しかし、プロンプトを工夫することで、ハルシネーションを抑制することはできます。
ChatGPTのライバルの1つであるClaudeを開発するAnthropicは、ハルシネーションを軽減するためのテクニックを公開しています。とても効果があるテクニックもあり、もちろん、ChatGPTでも有効です。今回は、このテクニックをもとに、できる限りハルシネーションを軽減させるためのプロンプトを紹介します。
ハルシネーションを抑える基本テクニック
1. 「わからない」と言える選択肢を与える
ChatGPTに指示を与えると全力で遂行しようとします。たとえ情報を持っていなくても、プロンプトを深読みし、それっぽい出力を生成するのです。そのでっち上げ能力はとても高く、こちらに知識がなければハルシネーションであることを見つけるのにも苦労してしまうほどです。
そこで、テクニック1は「「わからない」と言える選択肢を与える」です。ChatGPTに自信がないなら、わからないと正直に言って良いよ、と選択肢を与えます。人間に指示するような内容ですが、驚くべきことにAIにも有効なのです。