Googleは10月26日(米国時間)、「How Google is expanding its commitment to secure AI」において、安心かつ安全なAI(Artificial Intelligence:人工知能)利用に向けた取り組みとして脆弱性報奨プログラム(VRP: Vulnerability Reward Program)を拡張し、生成AI(Generative Artificial Intelligence)に特化した攻撃シナリオについても報奨を与えると発表した。Googleはこの拡張により、AIの安全性とセキュリティに関する研究が促進されて潜在的な問題が明らかになり、最終的にすべての人にとってAIがより安全になるとしている。

  • How Google is expanding its commitment to secure AI

    How Google is expanding its commitment to secure AI

GoogleはこのAI向け報奨金プログラム拡大の一環として、バグをどのように分類して報告すべきかを検討中としている。生成AIは不当なバイアス、モデルの操作、データの誤った解釈(幻覚)の可能性など、従来のセキュリティとは異なる新たな問題を引き起こすという。Googleは、現時点におけるAI製品に関する調査を期待する範囲(報酬基準)についてガイドライン「Google Online Security Blog: Google’s reward criteria for reporting bugs in AI products」を公開している。このガイドラインにより、セキュリティ研究者がより多くのバグを提出し、より安全な生成AIに寄与することを期待するとしている。

またGoogleは同日、「Google Online Security Blog: Increasing transparency in AI security」において、AIセキュリティの透明性向上のため、Sigstoreによるモデル署名とSLSAによる証明検証のプロトタイプが利用可能になったと発表した。これらソリューションはサプライチェーン攻撃へ対抗するための手助けになるとしている。

Googleはこうした取り組みにより、AIにサプライチェーンセキュリティを適用し、より多くのセキュリティ研究を奨励することで、最終的にAIがすべての人にとって安全になるよう支援していく構え。