生成AIは個人が実験する段階から、組織として活用する方向に移行する段階に入りつつある。これを受けて懸念される安全性や責任の課題に対し、英国と米国がAI開発ガイドラインを発表した。どのような内容で、影響が及ぶ範囲はどこなのだろうか--。

米英など16カ国が合意したAIセキュリティのガイドライン

ガイドラインは、英国の国家サイバーセキュリティーセンター(NCSC)、米国のサイバーセキュリティ・社会基盤安全保障庁(CISA)が取り組みを主導して作成したもので「Guidelines for Secure AI System Development」という名称を持つ。米英に加え、16カ国がこのガイドラインに合意しているという。

まずはガイドラインの内容を見てみよう。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら