人対人の戦いではなく、AI対AIの戦場がもはや現実のものとなりつつあるサイバー空間。「これまで熟練したハッカーが数日から数週間かけて行っていた攻撃の全プロセスを、AIが数時間、場合によっては数分で完了させる時代が到来した」と衝撃的な事実を突きつけるのは、サイバー大学 客員講師の日野隆史氏だ。

9月9日~11日に開催されたオンラインイベント「TECH+フォーラム セキュリティ 2025 Sep. 自社にとっての最適解を探る」において同氏は、急速に進化するAI技術がもたらす新たなセキュリティリスクとその対策について詳しく解説した。

AIの急速な進化がもたらす新たなセキュリティ脅威

講演の冒頭で日野氏は、現在が「産業革命に匹敵する歴史的変革の渦中にある」と指摘した。AI技術の進化スピードは当初の予測をはるかに超えており、言語理解、画像認識、複雑な問題解決など、かつて人間だけが可能だと考えられていた領域にまで進出している。

「多くの未来学者が、AIが全人類の知能を超える転換点、つまりシンギュラリティに2045年頃到達すると予測しています。これは単にAIが特定のタスクで人間を上回るという話ではありません。AIは一度学習したことを忘れず、瞬時に大量のデータを処理・共有できるため、その進化のスピードは私たちの想像をはるかに超えて加速しています」(日野氏)

AIの進化は多くの恩恵をもたらす一方で、深刻なセキュリティ課題も生み出している。同氏はとくに「ディープフェイク」と「サイバー攻撃の高度化」を挙げた。AIがつくり出す精巧な偽画像や音声は本物と見分けがつかないレベルに達しており、偽情報が社会に拡散するリスクを飛躍的に高めている。また、AIは人間を上回る速度と規模でサイバー攻撃を実行するため、従来の対策では防ぎきれない巧妙な攻撃が増加しているという。

  • AIによって変化した攻撃的セキュリティ

    AIによって変化した攻撃的セキュリティ

生成AIとAIエージェントが抱えるリスクの違い

日野氏は、現在注目されているAI技術を「生成AI」と「AIエージェント」の2つに分類し、それぞれのセキュリティリスクの違いを説明した。

「生成AIの主なリスクは、入力した情報が意図せず学習データとして利用されることによる情報漏えい、事実に基づかない情報を生成するハルシネーション、そして悪意ある指示による情報の引き出し(プロンプトインジェクション)などがあります」(日野氏)

一方で、AIエージェントは自律的に外部システムと連携するため、より複雑なリスクを抱える。同氏は「連携先のサービスに脆弱性がある場合、それが直接的な侵入経路になり得るサプライチェーンリスクが加わる。さらに、人間の監視を離れた自律的な行動が意図しない結果を招く可能性も考慮しなければならない」と説明する。

AIがもたらすサイバー攻撃の変化

AIは、サイバー攻撃のプロセス全体を自動化し、スピードと規模を劇的に向上させている。日野氏は、「AIはハッキングを完全に自動化しつつある。これまで熟練したハッカーが数日から数週間かけて行っていた偵察、計画、実行の全プロセスを、AIは数時間、場合によっては数分で完了させることができるようになった」と指摘する。

サイバーキルチェーンの各段階におけるAIの影響も具体的に説明された。偵察段階では、AIが大量の情報を収集してターゲットのプロファイルを自動構築し、武器化段階では、ターゲットに合わせたフィッシングメールや検知されにくいマルウエアを自動生成する。とくに恐ろしいのは、これらの攻撃が高度にパーソナライズされていることだという。

「あなたのSNSの投稿履歴、オンラインでの活動記録、公開されている個人情報、これら全てが瞬時に収集され、あなた専用の攻撃戦略が立案されるのです。AIはあなたの弱点や興味を完璧に理解したうえで、最も騙されやすいメールやマルウエアをオーダーメイドで作成します」(日野氏)

AI技術の悪用例として、ディープフェイクによる脅威も取り上げられた。同氏は、著名人を装った投資詐欺の動画広告がSNS上で大量に拡散された事例を挙げ、偽情報が社会に与える影響の深刻さを指摘した。

AIは最強の“盾”にもなる

一方で、AIが防御側の強力な武器となっている事例も紹介された。日野氏は、AIが私たちの日常生活を守り、デジタル社会の安全を支えている具体的な事例として、ディープフェイク検出、不適切投稿の削除、クレジットカードの不正検知を挙げた。

SNSやオンラインプラットフォームでは、人間だけでは処理しきれない量の不適切なコンテンツに対して、AIシステムが高速でスクリーニングを行う。また、クレジットカードの不正検知では、AIが個人の購買パターンを詳細に学習し、普段と異なる取引を瞬時に検知することで不正利用を未然に防いでいる。

「AIは、高速な分析能力とパターン認識能力を駆使して不正利用を未然に防ぎ、私たちの財産を守る盾となっています。AIにはAIで対抗する、これこそが現代のサイバーセキュリティの現実です」(日野氏)

実践的なセキュリティ対策5原則

AI時代のセキュリティ対策として、日野氏は個人と組織が実践すべき5つのポイントを提示した。

1. AIに教える情報を選別する パスワード、個人情報、会社の機密情報などをAIに入力しない。とくにAIエージェントは外部と連携する可能性があるため、情報の選別は非常に重要となる。なお、組織においてはエンタープライズ版のAI導入も有効な対策となる。

2. AIの出力を鵜呑みにしない AIのハルシネーションは正確な学習データからでも発生する。AIの回答は参考情報として扱い、必ず複数の情報源で事実確認を行うことが推奨される。

3. シャドーITの防止 IT部門の許可なく従業員が個人的にAIツールを業務で利用することで、機密情報の漏えいやマルウエア感染のリスクが高まる。組織は安全な代替ツールを提供し、危険性を具体的に示す必要がある。

4. AIモデルの攻撃と防御 敵対的攻撃やモデル汚染といった高度な攻撃手法が存在する。しかし、それ以前に「多層防御」と「最小権限の原則」といった従来のセキュリティ対策の基本をしっかりと実践することが最も重要だ。

5. 法的・倫理的配慮とガバナンス 個人情報保護や著作権侵害、差別的な判断など、AI活用には法的・倫理的なリスクが伴う。AI倫理ガイドラインの作成、継続的なモニタリング、定期的な従業員教育が不可欠となる。

未来への展望と人材育成の重要性

講演の終盤で日野氏は、AI時代において最も重要な要素として「人材」を挙げた。AIやモデルをつくる専門家だけではなく、AIを深く理解し、それを課題解決に応用できる人材が不可欠だという。

そして同氏は、「AIを脅威として恐れるのではなく、使いこなすという視点を持つことが重要」と強調し、下記5つの実践ポイントを提示した。

  • AI活用におけるポイント

    AI活用におけるポイント

「AIは正しく活用すれば信頼のおける強力なパートナーとなります。基本的な警戒心を常に持ちながら、AIと付き合っていくことが、これからの時代を安全に歩む鍵となるでしょう」(日野氏)