米OpenAIが開発・提供する「Chat(チャット)GPT」をはじめとした生成AIが社会に急速に浸透している。世界中の人々が劇的な業務効率化に成功し、あらゆる可能性に夢を膨らませている一方で、この革新的な技術の「負の側面」も見えてきた。それは、サイバー犯罪への悪用だ。

「出力制限のないChatGPTをサイバー攻撃者自らが開発し、その能力を販売し始めている」ーー。サイバーセキュリティの分野で20年近くの経験を持つNTTデータグループ エグゼクティブセキュリティアナリストの新井悠氏は、こう注意を促す。

NTTデータグループは12月15日、「2023年サイバーセキュリティ動向総ざらい」と題した説明会を開催。本稿では、同説明会で触れられた生成AI悪用事例について解説する。

  • NTTデータグループ 技術革新統括本部 システム技術本部 サイバーセキュリティ技術部 エグゼクティブセキュリティアナリスト 新井悠氏(12月15日、東京都江東区)

    NTTデータグループ 技術革新統括本部 システム技術本部 サイバーセキュリティ技術部 エグゼクティブセキュリティアナリスト 新井悠氏(12月15日、東京都江東区)

ChatGPTの制限をかいくぐる「ジェイルブレイク(脱獄)」

ChatGPTには、潜在的に違法なコンテンツの生成を遮断する制限が設けられている。例えば、「PCに侵入してデータを盗むためのプログラム」や「フィッシングメールの文面」を書くように依頼しても、そのようなコンテンツは違法・非倫理的・有害であると警告して拒否する。つまり生成AIの開発元は、「倫理的課題」を解消するための制限を自主的に行っているということだ。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら