前回は、生成AIの企業活用における課題である「セキュリティ」、「自社データの活用」、「ハルシネーション」のうち、セキュリティの課題に関する解決策を提示しました。

簡単におさらいすると、ChatGPTのように他社サーバで管理されているLLMの場合、プロンプトをサーバに送信する都合上、入力した内容が100%学習に使用されないとは断言できないというリスクがあります。そこで注目を集めているのがローカルLLM。企業が自社で生成AIを開発し、自社専用で使用することで、情報漏洩などのリスクを低減する方法としてお伝えしました。

今回は、残る2つの課題である「自社データの活用」と「ハルシネーション」について解説します。

本連載では、2024年9月に公開したeBook「生成AI最前線 ついに始まるLLMのビジネス活用」を全5回に分けてお届けします。内容はeBook公開時点の情報であり、最新のものとは異なる場合があります。あらかじめご了承ください。

生成AIが「思ったよりも使えない」理由

そもそも「自社データの活用」に関する課題とは何か。

例えば、ChatGPTやGeminiといった生成AIに次のようなプロンプトを入力してみます。

「◯◯(自社製品)の来期の売上予測をしてください」

このプロンプトに生成AIは正しく回答できるでしょうか。……もちろん、無理です。なぜなら、自社製品の売上予測に活用すべきデータは機密情報であり、一般の人が閲覧できるインターネット上に公開されていないからです。ChatGPTなどの生成AIはいわば汎用AIであり、インターネット上の情報を幅広く学習しています。逆にいえば、インターネット上に公開されていないデータは学習できておらず、そのデータを前提とした作業は正しく行えません。

これが、「自社データの活用」における課題です。厄介なのは、本当に重要な情報はインターネット上に公開されていないということです。製造業におけるベテランのノウハウ、美容師のカットの技術、特定の企業内でだけ通用する独自の慣習ーーいずれも暗黙知となっていることが多く、それらに関するプロンプトに生成AIは対応できません。

一見あらゆる問いに答えを出せそうな生成AIですが、実際に業務で使ってみると「思ったより使えないな」と感じることも多いはず。それは、業務で必要なクローズドデータを学習できていないことが理由なのです。

生成AIの致命的な弱点「ハルシネーション」

もう1つの課題が「ハルシネーション」です。この問題は生成AIが登場した当時から指摘されていました。ハルシネーションとは、生成AIが「もっともらしく嘘をつく」ことを言います。

例えば、本当は存在しない動物園をでっち上げて、生成AIに「詳細を教えてください」と入力します。すると、存在しない動物園であるにもかかわらず、生成AIはあたかもその動物園が存在するかのように偽の情報を回答してくることがあるのです。これがハルシネーションです。

実のところ、ChatGTPにおけるハルシネーションは以前に比べてかなり少なくなっています。ただし、それでもゼロではありません。生成AIに質問する場合は、常に回答が正しくないケースがあることを念頭に置いて活用する必要があるのです。

ということはつまり、生成AIをビジネスで使用する場合、「回答が正しいかどうかをユーザーが見極められる」ことが重要になります。仮に生成AIがハルシネーションを起こしても、その回答が誤っていると判断できれば大きな問題にはならないからです。逆に生成AIの回答が正しいか誤っているかをユーザー側が判断できないと、ビジネス上の大きなリスクにさらされる可能性もあります。

課題を解決し得る「2つの方法」

では、これらの課題を解決するにはどうすればいいのでしょうか。

効果的な対処法の1つが「RAG(Retrieval-Augmented Generation)」と呼ばれる方法です。RAGとは、外部のデータベースと生成AIを連携し、生成AIがコンテンツを生成する際にデータベースを検索させるフレームワークです。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら