Abnormal Securityは1月23日(米国時間)、「How GhostGPT Empowers Cybercriminals with Uncensored AI|Abnormal」において、安全対策の施されてないチャットボット「GhostGPT」が販売されていると報じた。
一般的にChatGPTなどに代表される生成AIのチャットボットには、社会通念上問題のある質問への回答や、悪用可能な情報の提供を回避する安全対策が施されている。しかしながら、今回販売が確認されたGhostGPTにはこれら対策がなく、サイバー犯罪者による悪用が可能とされる。
悪用可能な生成AI登場
悪用可能な生成AIツールはこれまでにも複数登場している。今回発見されたGhostGPTもその一つだが、これはサイバー犯罪者を支援するために特別に設計されたチャットボットとみられている。
GhostGPTはChatGPTの制限を不正に解除したバージョン、またはその他の大規模言語モデル(LLM: Large Language Model)に接続してサービスを提供していると推測されている。Telegram経由にて購入可能で、サイバー犯罪の参入障壁を大幅に引き下げ、技術力の低い攻撃者の能力を強化可能とされる。
Abnormal Securityは悪用可能なことを実証。米国の電子契約管理企業「Docusign」のサービスを悪用するフィッシングメールの作成を要求し、悪用可能なテンプレートが得られたとしてその画像を公開している。
対策
このようなツールが使用されると、誰でも容易に説得力のあるフィッシングメールを作成できるようになる。また、このようなメールは従来のセキュリティソリューションの検出を回避する可能性があり、企業には新しい対策が必要となる。
Abnormal Securityはその効果的な対抗手段として、AIを活用したセキュリティソリューションの導入を推奨している。AIは広範囲のシグナルを分析可能で、環境全体における異常を特定し、損害が発生する前に予測して防止できるとされる。
サイバー犯罪の戦術、技術、手順(TTPs: Tactics, Techniques, and Procedures)は日々進化を続けている。未知のサイバー攻撃を回避するために、企業には最新のセキュリティ対策について情報を収集し、導入を検討することが望まれている。