eSecurity Planetはこのほど、「How Generative AI Will Remake Cybersecurity」において、大規模言語モデル(LLM: Large Language Model)技術がサイバーセキュリティにどのような影響を与えるかについて伝えた。セキュリティにおけるLLM技術の活用法やLLMの限界、AIセキュリティの今後について解説している。

LLMのコア技術はかなり新しく、Googleの研究者が提案したトランスフォーマーモデルが大きなブレークスルーとされている。サイバーキュリティにおいても重要な役割を果たしていると考えられており、構造化されていない大量のデータセットの関係性を見つけられる技術とされている。

LLM技術により複雑なセキュリティ製品の使用を簡素化し、セキュリティ専門家の不足に対応することができるという。膨大な情報を処理できるため応答時間を短縮し、重要な脅威に集中することができるとのことだ。また、さまざまなセキュリティ関連の質問に対して専門用語を使わずにシンプルな言葉で結果の概要と推奨行動を提供することが可能とされ、ソフトウェアの脆弱性の有無や脅威アクタに関する情報の問い合わせや、LLMを活用しての脅威データの分析、異常なアラートを特定することができると述べられている。

ただし、LLMの問題点も指摘されている。幻覚の影響を受けやすく、虚偽の内容を生成したり誤解を招くことがあるといわれている。そのため、関連データに基づくシステムの構築と従業員のトレーニングや人間による検証やレビューなどが必要とされている。

LLMのセキュリティガードレールに関する問題やデータプライバシーへの懸念も存在する。技術的な制約があり、堅牢なネットワーク接続の要件やレガシーシステムとの互換性の問題があるため、多くの企業がLLMの使用を制限している。LLMシステムへの過度な依存も問題視されている。

LLMベースのシステムは銀の弾丸ではなく、トレードオフもあるという。しかしながら、LLMはサイバーセキュリティ業界に大きな変化をもたらす可能性を秘めているとされ、生成AIの進歩が急速であるため、LLM技術はますます重要な課題となっていると結論付けられている。