生成AIブームの火付け役となったOpenAIのChatGPTが公開されたのが2022年11月。それ以降も生成AIは進化を続け、活用の幅も広がり続けている。新たな生成AIも数多く登場しているなか、生成AIをどのように選び、どう有効活用するかが課題になってくる。
8月22日~23日に開催された「TECH+EXPO 2024 Summer for データ活用」にAI研究家の大西可奈子氏が登壇。昨今の生成AIのトレンドを紹介しながら、生成AIは今後どう進化していくのか、どう活用すべきかについて解説した。
現状では生成AIを社内向けに使うのが効果的
ChatGPTが公開されて以来、生成AI関連の新たな動きが毎日のように報じられている。その中で大西氏が注目した事例の1つが、Yahoo!フリマのアプリだ。出品する際に商品の説明文を書いてくれる生成AIを導入したのだが、ポイントは「AIからの提案」というボタンを用意したことだという。生成AIにはハルシネーションなどの課題があるため、ユーザーに分からないように使うのは問題がある。そこで安全面に配慮し、このことを理解したユーザーだけが明示的にボタンを押して利用する仕組みにしたのだ。
Google検索にはAI Overviewという機能が追加された。Googleでの検索結果のリストより上の部分に、生成AIがつくった要約が表示される機能だ。安全性への配慮により検索内容によっては表示されないこともあるが、検索結果のWebサイトを1つずつ開かなくても概要が分かるのは便利である。
AI技術はテキストだけではなく、動画や画像にも拡大している。その例がAIタレントやAI広告だ。伊藤園のCMにはAIタレントが起用されているし、パルコの広告用ムービーでは音楽やグラフィックなど全てが生成AIで作成されている。
このように企業がユーザー向けに生成AIを使うことも広まっているが、現状では社内向けに使うのがもっとも効果的だろうと大西氏は話す。例えばTOPPANホールディングスでは社内システムプログラム開発の業務効率化に生成AIを活用しているし、ファミリーマートでは生成AIによって関連業務時間の20パーセント削減を実現している。いずれも、生成AIを活用して個々の社員の業務効率を上げ、それを全体としての大きな効果につなげている例だ。
トレンドを見れば課題解決のヒントがある
現状ではいくつかの課題もある。顧客情報、個人情報のような外部に出せない情報を生成AIにどうやって使わせるか、そしてプライベートデータをどう活用するかという点だ。ChatGPTはWebの知識を学習しているだけで、社内だけで使う専用ツールのマニュアルなどのことは知らない。業務で使うには、プライベートデータをどういう風に与えていくかが課題になる。しかし大西氏によれば、最近のAIの4つのトレンドからは、これらを解決できる可能性も見えているそうだ。
低コスト化
生成AIに関するトレンドの1つ目は低コスト化だ。例えばOpenAIのGPTでは、2023年11月に発表されたGPT-4 Turboでは1M(ミリオン)のインプットトークンが10ドル、1Mのアウトプットで30ドルだったものが、2024年7月のGPT-4o miniではそれぞれ0.150ドル、0.600ドルとかなり低価格になった。まだ活用方法を模索しなければならない現状では、トライ&エラーが気軽にできることは喜ばしい。
OpenAI一強時代の終焉
2つ目は、OpenAI一強時代の終焉である。現在はOpenAIのChatGPTだけでなく、多様な生成AIが使えるようになり、やりたいことに合わせて選べるようになった。それを示すのが、生成AIのコア技術であるLLMのランキングだ。例えば「Chatbot Arena」と呼ばれるLLMのベンチマークプラットフォームがある。自動的に選ばれた2つの匿名モデルに質問をし、優れた回答に投票するものだ。長い間トップに君臨してきたGPT-4系を2024年8月にGoogleのGeminiが抜き、その後OpenAIの新モデルが抜き返すなどランキングは日々入れ替わっていて、高性能の生成AIが数多く出てきたことを示している。
扱いやすいサイズのLLMの性能向上
3つ目は、扱いやすいサイズのLLMの性能向上だ。LLMはパラメータ数が多いほど高性能とされ、これまで大規模化を続けてきた。例えばChatGPTのGPT-3.5はパラメータ数が355B(ビリオン)、GoogleのPaLMは540Bだ。しかし最近では、8Bや2Bといったサイズの小さいLLMであっても高い精度が出せるようになった。自分たちがやりたいことだけを高精度にできるなら、この程度のサイズで十分なのだ。大規模モデルなら技術力も必要だし、電気代、メンテナンス費用も莫大だが、例えば2BならMacでも稼働するサイズだ。自社での運用も十分に可能になり、トライ&エラーはコストの気兼ねなくいくらでもできる。また前述で課題として挙げたセキュリティの問題も解決できることになる。
LLMのサイズが小さくなったことで、エッジで生成AIを活用する動きも加速している。AppleがiPhoneにChatGPTを組み込むこと、そして独自の生成AIを開発していることを発表して話題になったが、注目すべきは独自の生成AIには大規模なサーバ版のほかにオンデバイス版があることだ。これは約3Bという小さいサイズであり、デバイス上で推論する。そのためプライベートな情報を外部に送る必要がない。
マルチモーダルな生成技術の進化
4つ目のトレンドは、マルチモーダルな生成技術の進化だ。マルチモーダルとは、テキストだけでなく音声や画像もミックスして使えるもので、GPT-4oなどがマルチモーダルな生成AIにあたる。例えば写真を示してその説明を求めると、写真の中のキャラクターやその状態、写っている文字を認識して、誰がどんな状態で写っていて何が書かれているかを正確に回答してくれるという。
大規模LLMとローカルLLMを目的に応じて使い分ける
今後、扱いやすいサイズのLLMの性能はさらに向上していくだろうとみられており、どこでも自社独自のローカルLLMを持つ時代になる可能性は高い。また、低コスト化が進むことで外部の大規模LLMも使いやすくなるため、用途に応じて外部LLMとローカルLLMを使い分けることが有効活用の鍵になる。例えば、プライベートデータを使う必要がなく汎用的に使いたいなら高精度な外部LLMを使えばよい。一方、高セキュリティなデータを使う場合や高精度なLLMが不要な場合は、ローカルLLMを使えばコストもかからず費用対効果も高められる。
「いずれにしても、プライベートデータを使うことは必要です。大規模LLMでもローカルLLMでも、例えばRAGなどを使ってプライベートデータをしっかり与え、目的にフィットする生成AIにして使うことが必要です」(大西氏)
生成AIを効果的に活用するためには、生成AIの強みを活かすタスクを選ぶことが必要だ。AIが不要なタスクや従来のAIのほうがフィットするタスクもあるため、生成AIを使うことが目的にならないようにすべきである。また、タスクに応じて生成AIを評価することも重要だ。前述のChatbot Arenaのような評価も有効ではあるが、それが自分たちの目的に合っているかを見極め、タスクに応じて独自の評価をする必要がある。そして昨今は低コスト化しているとはいえ、タスクによっては生成AIを導入するほうが高コストになることもあるため、費用対効果の確認も必要だ。
最後に大西氏は、生成AIは開発競争から活用競争へとフェーズが変わってきているとし、外部の大規模LLMとローカルLLMを使い分けた上で、テキスト以外のデータも使って活用してもらいたいと述べた。
「意外なデータが価値を生む可能性もあると思います。これからも生成AIを活用して事例をあげていっていただければ嬉しいです」(大西氏)