ChatGPTに入力するプロンプトによっては、事実でない間違った情報を出力してくることがあります。この現象をハルシネーション(幻覚)と呼び、生成AIをビジネスで活用する際の大きな課題となっています。生成AIの仕組み上、今のところ完ぺきにハルシネーションをなくすことはできません。しかし、プロンプトを工夫することで、ハルシネーションを抑制することはできます。

ChatGPTのライバルの1つであるClaudeを開発するAnthropicは、ハルシネーションを軽減するためのテクニックを公開しています。とても効果があるテクニックもあり、もちろん、ChatGPTでも有効です。今回は、このテクニックをもとに、できる限りハルシネーションを軽減させるためのプロンプトを紹介します。

  • 柳谷智宣の「ChatGPTプロンプトクリエイティブラボ」 第31回

    プロンプトを駆使して、ChatGPTのハルシネーションを退治しよう

ハルシネーションを抑える基本テクニック

1. 「わからない」と言える選択肢を与える

ChatGPTに指示を与えると全力で遂行しようとします。たとえ情報を持っていなくても、プロンプトを深読みし、それっぽい出力を生成するのです。そのでっち上げ能力はとても高く、こちらに知識がなければハルシネーションであることを見つけるのにも苦労してしまうほどです。

そこで、テクニック1は「「わからない」と言える選択肢を与える」です。ChatGPTに自信がないなら、わからないと正直に言って良いよ、と選択肢を与えます。人間に指示するような内容ですが、驚くべきことにAIにも有効なのです。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら