アクセンチュアは8月25日、「責任あるAIの実践」をテーマとした報道関係者向けの勉強会を開催した。勉強会では、責任あるAIが求められる背景、AI活用においてどのようなリスクがあり、どのような対策をとるべきかなどの解説が行われた。

市民レベルで高まるAIによる 社会への影響に対する懸念

初めに、ビジネス コンサルティング本部 AIグループ日本統括 AIセンター長 保科学世氏が、責任あるAIが求められる背景について説明を行った。

  • アクセンチュア ビジネス コンサルティング本部 AIグループ日本統括 AIセンター長 保科学世氏

保科氏は、AI市場は引き続き高い成長率を保持することから、影響力を踏まえた上で導入することが大事だと語った。AIの性能向上に伴い、ヒトや社会に影響を与える判断にもAIによる意思決定支援が広がっているが、 実世界での応用に際しては、人間中心の意思決定がますます重要になっているという。

一方、消費者は企業に対し「正しいことを行う」ことを求める傾向が高まっており、保科氏は「企業は間違ったことを避けるだけではなく、社会的倫理に対し意識の高いアプローチを通じた積極的な差別化を図る必要がある」と指摘した。

保科氏は、AIがもたらすリスクとして、「人種間の不平等」を挙げた。例えば米国では、顔認証技術の誤判断で黒人男性が逮捕されるといった事件が起きており、リスクを回避するために、大手企業が顔認識市場から撤退するという事態を招いているという。米国を中心に人種差別抗議運動「Black Lives Matter」が広がっているが、このBLMはAIの在り方にも影響を及ぼしているとのことだ。

こうした背景の下、AI活用のガイドライン策定の動きが世界で起こっている。日本では今年7月、経済産業省から「 AI 原則実践のためのガバナンス・ガイドライン ver. 1.0 」が公開された。これは、実施すべき行動目標、実践例、乖離評価例等から構成されるが、いずれも社会で一定程度共有されている標準的な目標や実践例をまとめたものとなっている。

  • 世界でAI活用のガイドライン策定の動きが始まっている

  • 日本では、今年7月、経済産業省から「 AI 原則実践のためのガバナンス・ガイドライン ver. 1.0 」が公開された

「責任あるAI」実現に向けた4つのアプローチとは

こうした中、アクセンチュア「責任あるAI」という考え方を掲げている。「責任あるAI」とは、顧客や社会に対してAIの公平性・透明性を担保する方法論だ。この方法論に基づいて、AI を設計・構築・展開することで、真に 人間中心 の AI 活用の実現を目指すことが可能になるという。

AIが「悪さ」をした事例としては、「画像管理アプリで黒人画像にゴリラのタグ付けがされていることが問題視されたこと」「差別的な人材採用AIが問題になり廃止になったこと」などがある。

  • AIが悪さをした事例

アクセンチュアでは、AI倫理と「責任あるAI」実現に向け、4つのアプローチを掲げている。4つのアプローチについては、ビジネス コンサルティング本部 AIグループ シニア・マネジャー 鈴木博和氏が説明を行った。

  • アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー 鈴木博和氏

AI倫理と「責任あるAI」実現に向けた4つのアプローチは、「技術」「ブランド」「ガバナンス」「組織・人材」から構成されている。「技術」のアプローチでは、AIの開発フローで混入する潜在的リスクを理解し、低減策を検討する。

  • AI倫理と「責任あるAI」実現に向けた4つのアプローチ

AI開発においては、「サンプリングバイアス」「測定バイアス」「社会的偏見」など、さまざまなリスクが潜在している。そこで、アクセンチュアはAIを活用した意思決定において、システムが意図した通りに機能し続けるようにデザインされた AI システムの技術評価「アルゴリズム・アセスメント」によって、AIの信頼性を確立することを推奨している。

  • AI開発における潜在リスク

  • AI倫理と「責任あるAI」実現に向けた4つのアプローチ

「ブランド」のアプローチにおいては、AIに開発・利用における一連の活動に対し、ESGの観点を盛り込み、ブランド価値の維持・向上を図る。鈴木氏は「ESGの観点から、どのようにしてAIを絡めるかという議論が進んでいない」と語った。例えば、AIの大規模化が進んでおり、メリットとして処理の高速化などがあるが、その反面、消費電力が増加するといったデメリットもあり、AIを利用する際は環境面にも目を向ける必要性が出てきている。

  • ESGの観点から見た「責任あるAI」の在り方

3つ目のアプローチ「ガバナンス」では、企業全体でAIのリスク・倫理判断、AI戦略を実行していくようなガバナンス体制を構築する。アクセンチュアでは、AIガバナンスを構築するロードマップを「倫理委員会」「経営トップのコミットメント」「トレーニング&コミュニケーション」「レッドチームと“消防隊員”」「ポジティブな影響をもたらす倫理指標」「問題提起できる環境」という6つのフェーズで考えている。

  • AIガバナンス構築のロードマップ

最後のアプローチが「組織・人材」だ。このアプローチでは、AI倫理の観点で必要になる研修などを通して人材を育成し、「責任あるAI」を重視する組織風土の醸成を行う。経営層、ビジネスメンバー、開発メンバーのそれぞれで課題が異なることから、各レベルに対する課題に沿った研修を実施して、企業全体で「責任あるAI」の文化の醸成が必要だという。

アクセンチュアでは、「責任あるAI」のガバナンスガイドブックを無償で公開しているほか、上記の4つのアプローチに基づき、「責任あるAI」 実現に向けた包括的支援を提供している。

  • 「責任あるAI」実現に向けたアクセンチュアの支援

保科氏は「今、AIに対し、世の中がどうすべきかということが求められている。AIはリスクを内包するが、そのリスクは軽減できる」と語っていた。