マクニカは4月21日、「ChatGPTを悪用したサイバーリスク」をテーマにしたメディア向けの勉強会を開催した。
本来はChatGPTが回答できない内容を強引に引き出す「ChatGPT Jailbreak(脱獄)」の最新手法や、ChatGPTを企業のシステムに組み込んだ際に想定されるリスクが勉強会では解説された。
ランサムウェアのサンプルコードも出力可能
サイバー攻撃者によるChatGPTの悪用では、「フィッシングメールに代表されるソーシャルエンジニアリングのための文章作成」と、「マルウェア開発のためのコード生成」という2つのケースが考えられるという。
ChatGPTはOpenAIが定めたポリシーに基づいて運用されているため、基本的には法律や倫理に反するアウトプットは行えない。
マクニカ セキュリティ研究センター 主幹の凌翔太(しのぎしょうた)氏は、「例えば、『フィッシングメールの本文を考えて』とプロンプトに入力しても、『違法行為や不正行為を助長する情報は提供できません』と回答されてしまう。しかし、ChatGPTに何でも回答させる人格を付与する『DAN(Do Anything Now、ダン)』という脱獄手法の登場によって、OpenAIのポリシーに反する出力内容も生成できることがわかり、さまざまな脱獄方法が悪意のあるユーザーによって考案され続けている」と説明した。