英国立サイバーセキュリティセンター(NCSC: National Cyber Security Centre)はこのほど、「ChatGPT and large language models: what's the risk?」において、ChatGPTと大規模言語モデル(LLMs: Large Language Models)が抱えるリスクについて伝えた。

  • ChatGPT and large language models: what's the risk?

    ChatGPT and large language models: what's the risk?

ChatGPTはOpenAIが開発したAIチャットボット。2020年に発表された言語モデル「GPT-3」をベースにしており、AIによって人間のようなテキストを生成することができる。

GPT-3の基礎となる大規模言語モデル技術はもっと古くに登場している。大規模言語モデルは、大量のテキストベースのデータに対してアルゴリズムを学習させたものとされている。通常、学習にはオープンなインターネットから収集した情報が使われ、科学研究、書籍、ソーシャルメディアの投稿などさまざまなソースが含まれている。不快なコンテンツや不正確なコンテンツがフィルタリングされていないため、物議を醸すコンテンツがモデルに含まれる可能性があるといわれている。

ChatGPTを利用することで、通常のチャットボットと会話するかのように大規模言語モデルに質問することができる。大規模言語モデルは膨大なパターンの説得力のあるコンテンツを生成する能力を持つすぐれたAI技術とされているが、次のような重大な欠点があると指摘されている。

  • 物事を間違えたり、誤った事実を幻覚させたりすることがある
  • 答えに偏りがある可能性があり、だまされやすい
  • ゼロから学習させるには、膨大な計算資源と膨大なデータが必要になる
  • 有害なコンテンツを作成するように仕向けられることがあり、インジェクション攻撃を受けやすい

加えて、ChatGPTと大規模言語モデルの活用によって生じる懸念点も紹介されている。その1つとして、大規模言語モデルが学習した情報が他のユーザーに提供されてしまう可能性を挙げられている。この懸念に関しては、問い合わせる際に入力した情報が保存され、ある時点で大規模言語モデルのデータに組み込まれることがほぼ間違いないと推測されている。またサイバー攻撃を受けて情報が漏えいしたり、あるいは誤って一般に公開されたりしてしまう危険性も懸念されている。

NCSCは大規模言語モデルがサイバー犯罪者に悪用される危険性についても考察している。例えば、スキル不足の脅威者が大規模言語モデルを使うことで、高度なマルウェアを作成できるようになるかもしれないということが考えられる。ただ、現時点では大規模言語モデルが複雑なタスクに適していないため、これは問題視されていない。大規模言語モデルが出力したコードを修正するよりも、セキュリティ専門家が一から作成したものの方が今のところ強力とされている。ただし、この問題は大規模言語モデルの進歩とともに変化していく可能性があるという。

大規模言語モデルは文体の再現に優れているため、多言語のメールを含む説得力のあるフィッシングメールの作成に使われる危険性があるとのことだ。高い技術力を持ちながら言語能力に乏しい攻撃者が、ターゲットの母国語で説得力のあるフィッシングメールを作成するのに役立つ可能性があると考察している。

公開された大規模言語モデルの使用は、間違いなくリスクを伴うと伝えている。個人や組織が大規模言語モデルを利用する場合、使用条件とプライバシーポリシーを十分に理解する必要があると助言している。公開された大規模言語モデルの問い合わせに機密情報を含めないこと、問題となるような質問を公開された大規模言語モデルに投げかけないことが推奨されており、細心の注意を払う必要があると結論付けている。