生成AIは個人が実験する段階から、組織として活用する方向に移行する段階に入りつつある。これを受けて懸念される安全性や責任の課題に対し、英国と米国がAI開発ガイドラインを発表した。どのような内容で、影響が及ぶ範囲はどこなのだろうか--。

米英など16カ国が合意したAIセキュリティのガイドライン

ガイドラインは、英国の国家サイバーセキュリティーセンター(NCSC)、米国のサイバーセキュリティ・社会基盤安全保障庁(CISA)が取り組みを主導して作成したもので「Guidelines for Secure AI System Development」という名称を持つ。米英に加え、16カ国がこのガイドラインに合意しているという。

まずはガイドラインの内容を見てみよう。

ガイドラインは、(1)安全な設計、(2)安全な開発、(3)安全なデプロイ、(4)安全なオペレーションとメンテナンス、と4つに分類している。

(1)については、ライフサイクルの設計段階においてリスクと脅威を測定すること、(2)はサプライチェーンのセキュリティ、ドキュメンテーション、技術的なマイナス面などについて考慮することなどを示しているという。(3)では、モデルの侵害への保護を積極的に行うこと、インシデント管理プロセスと責任あるリリースなどについてプロセスを持つことを推奨する。

AIシステムが実装された後では、(4)として安全性にフォーカスして保守を行うように、としている。AIシステムのプロバイダに対し、自分たちのシステムのセキュリティについて透明性を持ち、情報を共有することも求めている。

このガイドラインがターゲットにしているのは、AIシステムのプロバイダだ。既存のAIシステム、これから構築するAIシステムが対象となる。一方で、ガイドラインなので強制力はない。つまり、対応していないとしても何らかの刑罰が科されるものではないということになる。

ガイドラインに対応するべきなのか?

しかし、ガイドラインに明示されていることはセキュリティや責任という点では重要なプラクティスとなるため、従うことに利点があるという。

オープンソースの依存性ライフサイクル管理プラットフォームを開発するEndor Labsの最高セキュリティアドバイザー、Chris Hughes氏は「大規模なAI開発者が、ソフトウェア開発ライフサイクル全体を通じてガイドラインの推奨事項とプラクティスを組み込むことができれば、バイアス(偏見)やモデルデータのポイズニング(毒)、モデルまたはシステムの完全性に対する侵害など、多くの懸念事項を緩和できるだろう」とガイドラインのメリットを語っている。

このガイドラインを意識すべきはAIシステム開発者だが、AIシステム開発の段階で実装されることで、エンドユーザーも恩恵を受けるだろうという予想も示している。「AIシステムを使うエンドユーザーもAIのリスクについて知っておく責任がある」と語るのは、サイバーセキュリティソリューション企業であるOptiveのRandy Lariar氏だ。

同氏は「AIを利用する者として、(AIシステムを使うことで得られる)成果、セキュリティフレームワークとの整合性を図る努力をしているのかなどにフォーカスし、最終的にはリスクの観点から吟味されたユースケースや取り組みを展開することが大切だ」と述べている。

そして、AIシステムの構築は、このようなガイドライン、将来的には規制に対応しながら進めていかなければならないだろうと予想する。

クレジットカード業界が安全性のためにPCI DDS(Payment Card Industry Data Security Standard)として国際統一基準を設けているが、AIで同じようなことが起こるようなことも考えられる。

参考になりそうなのが、クラウドにおけるセキュリティだ。クラウドが普及し始めた当時、セキュリティは懸念されていたものの、ベンダーの取り組みは進んでいなかった。時間の経過とともにクラウドベンダーおよびパートナーのエコシステムが形成され、クラウドが安全に設定されるようになり、検知対応も洗練されていったという背景がある。

AIのセキュリティについてはまだまだ早期段階にある。しかし、2023年12月には米IBM、MetaがAI Allianceを立ち上げたように、少しずつではあるが進展すると見られることから、今後の動向に注目したい。Information Weekが「New Secure AI Development Rules are Historic, But Do They Matter?」として解説している。