Zscalerは11月9日(米国時間)、「Generative AI Enterprise Predictions|ThreatLabz」において、企業から見たAI(Artificial Intelligence)、機械学習(ML: Machine learning)、生成AIの今後のトレンドに関する5つの予測を発表した。
Zscalerの調査に基づくAI、生成AI、機械学習に関する5つの予測の概要は次のとおり。
- 企業におけるAIの利用は拡大し、製造業が主導権を握る
- 企業はAI、MLアプリケーションを保護するために、リスクに先手を打つ
- 企業はAI、MLアプリケーションに可視化と知的なアクセス制御を求める
- AIは企業データ保護の重要な要素となる
- AIは企業がトップダウンでリスクとセキュリティを理解する方法を変革する
Zscalerによると、2023年5月から2023年6月にかけて複数の企業がAIの利用を拡大、2023年8月までこの傾向が持続したという。AIとMLのトラフィックは製造業が最多。製造業では今後、人工知能と機械学習が重要な役割を果たすと推測している。製造業に次いでトラフィックが急成長したのは金融業界。その背景には、ChatGPTやDriftのような生成AIの採用がある。トラフィックではOpenAIのChatGPTが多くを占めるが、最もよく利用されるツールはDriftとされ、これにChatGPT、LivePerson、Writerが続く。
セキュリティ面ではAI、MLの拡大に伴い、そのトランザクションが精査を受けていることが明らかになった。具体的にはAI、ML関連のトランザクションのうち、約10%がURLフィルタリングポリシーによってブロックされている。興味深いことに最も多くブロックされたアプリケーションは、最も多く利用されているDriftであった。
企業はAI、MLに対してリスクの存在を懸念しているといわれている。ChatGPTのような大規模言語モデル(LLM: Large Language Model)では、入力データも学習データとして再利用されるため、質問として入力したデータが外部に漏洩する可能性がある。加えて、生成AIにはプライバシーの問題が指摘されている。
これら問題点について、生成AIアプリケーションはサービスごとにそれぞれ利用条件が異なるため、企業は目的に応じて生成AIアプリケーションを検討し、企業のデータを安全に保つ使用方法の模索が必要になると考えられている。
最後に、企業は今後のAI、MLアプリケーションに対して正確な制御を要求すると見られている。従業員が正しく扱えているか、細かくアクセス制御できるか、情報を保護できているかなど、可視化ときめ細かなアクセス制御を提供できるAI、MLアプリケーションの採用が進むとみられている。
また、企業が抱えるセキュリティ対策としてもAI、MLの利用が見込まれている。組織内のリスクの可視化など、サードパーティを含めた全体の包括的なリスク評価への活用や、組織のセキュリティ対策の推奨事項を自動的に取得するツールの開発など、新しい人工知能の可能性にも注目が集まると予測されている。