業界のニューフェイスとして現れた「生成AI」と「LLM(Large Language Model:大規模言語モデル)」は、今や世界中の企業にとって業務上欠かせない存在になりました。特にChatGPTのおかげで、AIテクノロジーは日常生活に溶け込んできています。
テクノロジーの進歩には常にリスクが伴います。生成AIとLLMは、働き方を向上させ変革する力を大いに秘める一方で、重大なセキュリティリスクをもたらす可能性があります。急速に台頭するテクノロジーにはよく見られることですが、企業やプライベートに関わらず、こういったツールやアプリケーションを導入する際、セキュリティチームには新たな懸念に対処する任務が課せられています。
プルーフポイントの「2024 Data Loss Landscape Report」において、生成AIは、最も急速に成長している懸念領域として挙げられています。
多くの従業員がChatGPT、Grammarly、Bing Chat、Google Geminiなどにデータを入力するようになり、情報漏えい対策ソリューション「Proofpoint Information Protection」を利用中の組織がDLP(情報漏えい対策)アラートルールを設定する際、トップ5に「生成AIサイトの使用」が含まれています。
生成AIやLLMをはじめとする高度なアプリケーションと従業員との関わりが急増するなかで、柔軟で人を中心としたHuman-Centricなアプローチ、かつ、高度にカスタマイズされたサイバーセキュリティ対策が求められているのです。
職場におけるAI:そのリスクとは?
それでは、職場におけるAIに潜んでいるリスクについて見ていきましょう。
情報保護
現在、セキュリティチームが持つ大きな懸念は、LLMに関するデータ保護とプライバシーにあると言えるでしょう。ChatGPTのようなツールには、ユーザーからのデータ入力が必要です。例えば、質問やプロンプトといった入力情報がそれに当たります。入力された情報は生データとして処理され、LLMは、このデータを自然言語処理(NLP)や意味解析などの技術を用いて解析、その上で適切な結果を提供します。
ChatGPTのプロンプトボックスには、 フォントサイズ12ポイントのテキストを約6ページ分コピーすることができます。分割ツールのプロンプトスプリッターを使用することでさらに長文の入力も可能になるため、データの損失、悪用、漏えいのリスクが非常に高くなります。
AIシステムには、データの過学習や不適切なデータのサニタイズ処理をはじめ、個人デバイスへの不正な統合に至るまで、無意識のうちにあらゆる形で機密情報を流出させてしまう可能性があります。
グローバル半導体企業の例からも分かるように、AIに投入したデータによって機密情報の漏えいにつながる可能性が挙げられます。最終的に、この企業は社員のChatGPT使用を禁止するという措置を取りました。
ガバナンスと規制
現状では、組織の多くは、誰がどの程度生成AIを使用しているのかを把握しておらず、データ入力の監視や適用ポリシーの策定ができない状況です。
そのため、情報漏えいのリスクが高まるだけでなく、国のAI規制やデータ保護法に準拠しているかを組織が把握することが難しくなります。EU(ヨーロッパ連合)では、2024年8月1日にAI規制法が施行されましたが、オーストリアのプライバシー擁護団体とイタリアのデータ保護当局(DPA)が、ChatGPTとGDPR規制に関して苦情を申し立てました。日本では、現在AIを包括的に規制する法令は存在せず、拘束力のないガイドラインが定められているのみです。
データの入力だけでなく、生成される出力にも同様に問題が潜んでいます。従業員がLLMやその他のAIツールを使用してコードやコンテンツを生成した場合、その出力が盗用される可能性がないこと、脆弱性がないこと、そして不正確でないことを保証することは非常に困難です。組織がセキュリティ侵害や特許、登録された知的財産に関する問題にさらされる可能性が生じます。
脅威のベクター(攻撃経路)
AIが持つ、効率性向上のパワーは絶大です。しかし、残念ながら、善意のある従業員だけが利用するツールではないことも事実です。また、NLP(神経言語プログラミング)やLLMモデルを、ソーシャルメディアのフィードやチャット履歴といった膨大なデータセットを使って訓練させることで、高度なパーソナライゼーションやより説得力のある文章を作成することができ、攻撃者はこれを悪用します。
これまでは、変な日本語、誤字脱字、文法ミスなどでサイバー犯罪者を見分けることができましたが、NLPやLLMといったツールを利用すると、このようなミスが回避され見分けが困難になってしまいます。また、多くのプラットフォームは無料で提供されているため、攻撃者にとっては資本金や一定以上のスキルといった従来の障壁が取り除かれ、コンピュータの基礎知識と悪意を持った者は誰でも高度なサイバー攻撃を仕掛けることができてしまいます。
プルーフポイントの年次報告書「2024 Voice of the CISO Report」において、調査対象となったCISO(情報セキュリティ最高責任者)の約半数(日本:42%、世界平均:54%)が生成AIを自社にとってのセキュリティリスクであると回答しています。
2024年10月、OpenAIはプルーフポイントによる報告を受けて、全世界で20を超える「攻撃オペレーションおよび詐欺ネットワーク」を阻止したことを認めました。AIツールがサイバー攻撃を強化するために利用されたことが初めて公式に確認されたのです。
人的問題を解決するのは人
多くの重要な技術革新と同様に、AIも両刃の剣であるといえるでしょう。新たなリスクをもたらし、攻撃者をサポートしてしまう一方、防御力を強化してそのような攻撃を阻止する力も高めてくれます。
新たなテクノロジーが情報漏えいの状況を変えてくれるかもしれません。しかし、その中心にいるのは常に「人」です。これはすべて、「誰が」「なぜ」「どのように」「何をする」のかを理解するところから始まるのです。
どのユーザーがAIとやり取りしているのか、なぜAIを使うのか、そしてどのようにAIを利用しているのか。これを理解するごとに、潜在的なリスクを低減することができます。
組織は、脅威インテリジェンス、行動分析AI、検出エンジニアリング、セマンティックAIを組み合わせた多層的な融合アプローチを採用する必要があります。このアプローチにより、より高度な脅威やデータ損失インシデントに対して、ブロック、検出、対応が可能になります。従来型のデータを中心に情報漏えいを監視するDLPでは通常見逃してしまう行動でも、人の振る舞いを基点にするHuman-Centricアプローチでは警告を発することができます。その結果、偽陰性や偽陽性のノイズを大幅に低減することが可能です。
ツールはビジネスに欠かせない存在ですが、それを利用するユーザーの意識が低ければ意味がなくなってしまいます。AIの使用においては、振る舞いをベースとしたDLPポリシーを組み込み、グレーゾーンに対して明確なパラメーターを設定することによって、従業員の脆弱性、役割、権限に応じてリアルタイムに知見を提供することが重要です。
これにより、従業員一人ひとりにセキュリティの意識を根づかせることができ、組織全体のセキュリティ態勢を強化しつつ、AIを用いて業務効率性を向上させることが可能となります。適切なブレーキがなければアクセルを踏むことはできません。セキュリティとともにAIを用いることによって、組織全体が一丸となって安全なビジネス変革を進めることが可能となります。