近年、ビジネスシーンにおける生成AIの利用が一般的になりつつあります。企画書やプレゼン資料の作成から顧客のデータ管理まで、その用途は様々。そこで本連載では生成AIを使用する際におさえておきたい必須ポイントを「この一冊で全部わかる ChatGPT&Copilotの教科書」から抜粋して紹介します。今後生成AIが発展して進化しても、変わらずにおさえておきたいポイントです。
第2回はハルシネーションについてです。
嘘を出力する
生成AIは嘘を出力する可能性があるため、出力された成果物のチェックは必ず行いましょう。
生成AIが嘘を出力する現象は「ハルシネーション※」(Hallucinations)と呼ばれ、とくに注意したいポイントです。※日本語で「幻覚」という意味
ハルシネーションが起こる原因のひとつは、学習したデータに間違った情報が含まれていることです。GPTの学習データは主にインターネット上の情報です。インターネットの情報には誤った情報や偏ったデータが存在するため、結果としてハルシネーションにつながります。
また、文章生成AIは次の単語を予測しているに過ぎないため、学習していない情報を求められた場合、あたかも真実のように嘘を出力することもありえます。
そのため、生成AIが出力した情報を鵜呑みにすると、嘘の情報が含まれる成果物を納品したり、誤った判断を下したりしてしまう可能性があります。とくに、医療や法律など、正確性が求められる分野での使用には注意が必要です。
生成AIを使う際は、ハルシネーションが起こり得ることを前提に、人間が出力内容を確認することが大切です。生成AIの出力をそのまま信じるのではなく、その情報が正しいかどうかを検証する習慣をつけましょう。
ハルシネーションを減らすためには「Few-Shotプロンプティング」で回答例を与えたり「知識生成プロンプティング」で事前に事実を与えたりといったテクニックを使うことが有効です。また、プロンプトに「知らない情報を求められた場合は、知らないと答えてください。」のように入力することも有効です。
ハルシネーションは、生成AIが普及しきれていない原因のひとつです。しかし、ハルシネーションがあるからといって生成AIを使用しなければ、時代に置いていかれてしまいます。大切なのは、ハルシネーションがあることを理解したうえで、生成AIを適切に使いこなし、効率化を図ることです。生成AIが時として嘘をつくからといって使用を避けるのではなく、それを許容したうえで付き合っていくことが、生成AIを活用する際には重要です。
『この一冊で全部わかる ChatGPT&Copilotの教科書』(中島 大介著/西 宏章監修/SBクリエイティブ株式会社 刊)
生成AIの急速な進化が、私たちの生活と働き方に革命をもたらしています。 本書では、生成AIの基本知識から、実践的な利用方法までを網羅的にわかりやすく解説しています。より実践的に生成AIを利用するためには、基本的な仕組みをしっかりと理解することが必須です。そのため、本書ではその解説から始めます。 現在最も注目されているChatGPTとCopilotの仕組みを深掘りし、これらのツールがどのようにしてあなたの業務や生活をサポートできるのかを学びます。理想的な回答を得るためのプロンプトのコツも丁寧に紹介しているので、すぐに実践可能な生成AIの活用法を学び、業務の効率化が実現できます。 さらに、ChatGPTの有料版「GPT-4」を活用することで、さらに生産性を向上させる具体的な方法を紹介。最新技術を駆使して、あなたのビジネスを次のレベルへと引き上げます。「この一冊で全部わかる ChatGPT&Copilotの教科書」は、あなたの未来を切り拓くための知識とスキルを提供する、まさに時代の新常識を学ぶためのバイブルです。この一冊で、生成AIの無限の可能性を探求し、未来のリーダーとしての一歩を踏み出しましょう。
Amazon購入ページはこちら