マクニカは4月21日、「ChatGPTを悪用したサイバーリスク」をテーマにしたメディア向けの勉強会を開催した。

本来はChatGPTが回答できない内容を強引に引き出す「ChatGPT Jailbreak(脱獄)」の最新手法や、ChatGPTを企業のシステムに組み込んだ際に想定されるリスクが勉強会では解説された。

【関連記事】
≪ColtのCMO水谷氏、ChatGPTなどAIを活用したマーケティング施策の効果を説明≫
≪ChatGPTを活用する弁護士ドットコムが描く、プロフェッショナル・テックの世界≫

ランサムウェアのサンプルコードも出力可能

サイバー攻撃者によるChatGPTの悪用では、「フィッシングメールに代表されるソーシャルエンジニアリングのための文章作成」と、「マルウェア開発のためのコード生成」という2つのケースが考えられるという。

ChatGPTはOpenAIが定めたポリシーに基づいて運用されているため、基本的には法律や倫理に反するアウトプットは行えない。

マクニカ セキュリティ研究センター 主幹の凌翔太(しのぎしょうた)氏は、「例えば、『フィッシングメールの本文を考えて』とプロンプトに入力しても、『違法行為や不正行為を助長する情報は提供できません』と回答されてしまう。しかし、ChatGPTに何でも回答させる人格を付与する『DAN(Do Anything Now、ダン)』という脱獄手法の登場によって、OpenAIのポリシーに反する出力内容も生成できることがわかり、さまざまな脱獄方法が悪意のあるユーザーによって考案され続けている」と説明した。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら