日立製作所は2月22日、Lumada(日立製作所のソリューション・サービス・テクノロジーの総称)をエンジンに推進する社会イノベーション事業において、人間中心のAIを開発・社会実装するために「AI 倫理原則」を策定し、Webで公開した。

AI倫理原則は、3つの「行動規準」と、安全性や公平性、プライバシー保護などの観点で定めた7つの「実践項目」で構成されている。

  • AI倫理原則は、3つの「行動規準」と、安全性や公平性、プライバシー保護などの観点で定めた7つの「実践項目」で構成

同社では、社会イノベーション事業において、社会インフラに直結する OT(Operational Technology: 制御・運用技術)領域では、AIの異常動作や外部からの悪意を持った行為により、社会全体や人命に関わる重大な影響を及ぼすリスクがあり、IT領域では AIの開発を誤れば差別や偏見、格差を助長するおそれがあるため、AIの開発や社会実装に内在する倫理的リスクを抑制するため、「AI倫理原則」を策定したとしている。

  • AI倫理に関する指針の必要性

日立製作所 サービス&プラットフォームビジネスユニット Lumada CoE AIビジネス推進部 部長(Lumada Data Science Lab.兼務)吉田順氏は、「従来のシステムはルールベースで作成され、入力と出力は予見でき制御しやすかった。AIのシステムは開発時点では予見できない結果が出てくる可能性がある。これまでは個別に対応してきたが、それでは時間がかかるので、共通的にやったほうがいいだろうということで、AI倫理原則を策定した」と説明した。

  • 日立製作所 サービス&プラットフォームビジネスユニット Lumada CoE AIビジネス推進部 部長 吉田順氏

  • 従来システムとAIシステムの相違

現在、社会イノベーション事業における先進の協創プロジェクトが多く集まる「Lumada DataScience Lab.」を中心に、「AI 倫理原則」をもとにしたチェックリストを活用することで、AI の利活用目的の確認や社会実装へのリスク評価、対応策立案など具体的な運用を開始。また、対応策の一つとして、Explainable AI(XAI:AI を説明するための技術)の適用なども行っている。

今後同社は、AI 倫理確立に向けた取り組みをホワイトペーパーとして公開することで、社会全体での議論活性化に貢献するとともに、外部有識者からなる「AI倫理アドバイザーボード」、顧客、Lumad アライアンスパートナーなどのステークホルダーの多様な意見 を取り入れて、継続的に改善を図っていくとしている。

  • ステークホルダーの意見を取り入れて、継続的に改善

AI 倫理原則:行動規準

1.持続可能社会実現のために、AI の開発、利活用を計画します
AIの潜在的な倫理的リスクを抑制し、新たな価値の創出を図るには、計画の時点において、サービス、ソリューションやプロダクトにAIを利活用しようとする目的が適切であることが重要です。日立は、社会の多様な課題を解決し、快適で強靭な持続可能社会の実現や、世界中の人々のQoL 向上のために AI の開発と利活用を計画します。

2.人間中心の視点で、AIを社会実装します。
AIの判断結果が、個人を尊重し、社会の利益に資するよう、責任をもってAIを社会実装し、AIと人間との共生を可能とすることが重要です。日立は自由、公平、公正の理念にのっとり、人間中心の視点でAIの社会実装を行うとともに、AIが想定通りに機能するよう検証に努めます。

3.提供価値が長期間にわたり持続するよう、AI を維持管理します
AIの社会実装後にも、AIが長期かつ安定的に価値を提供し続けることが重要です。日立は、AI の提供価値が社会や環境の変化に応じ継続的に受け入れられるよう維持管理に努めます。

AI 倫理原則:実践項目

1.安全重視
AIおよび AIを活用したシステムやソリューションが想定通りの動作をするよう品質を検証し、利用者やそれに関係する者の生命や健康をはじめとする人権、財産、名誉、信頼、信用を守ることに努めます。また、同時に、地球環境の破壊あるいは悪化を防止し、人々に安全な暮らしを提供する AI の実現、運用に努めます。

2.プライバシー保護
AIの学習、評価、運用に利用する入力データおよびAIが出力するデータに関して、個人情報を適切に扱い、プライバシーを含む権利を保護するよう AI の実現、運用に努めます。

3.公平性実現
AIの判断結果が、多様なステークホルダーの利益に資するとともに、人種、性別、国籍などによる差別や偏見を発生させたり助長させたりすることがないようAIの実現、運用に努めます。

4.適正開発・利活用
AIが設計された用途や動作条件から逸脱した使い方をされないよう、AI の具体的な利活用シーン(ユースケース)におけるリスクポテンシャルを踏まえた開発を行い、AI の適正な利活用に努めます。また、利用者や運用者等に対し利用方針、利用条件等を示すことで AI の適正な運用に努めます。さらに、AI が利用される動作環境の変化、AI やその判断結果に対する人々の意識や社会状況の変化などを随時確認し、AI の適切な維持管理に努めます。

5.透明性・説明責任重視
AIの判断結果の根拠などを検証し説明できるよう AI の透明性確保に努めるとともに、AI やその判断結果に関して用途や状況に応じ、説明責任を果たすよう努めます。

6.セキュリティ重視
情報漏洩、改ざん、システムの破壊、サービスの妨害などを防止するよう、システムや運用レベルでの対策も含め、セキュリティを重視した AI の実現、運用に努めます。

.法令遵守
利用される国や地域の法令を遵守した、AI の実現、運用を行います。