人工知能(AI)の技術開発は加速しており、ヘルスケア、教育、気候変動への対策、穀物生産など、人間のあらゆる営みにおいて進化を遂げている。

米マイクロソフトは4月17日(現地時間)、公式ブログにおいてAIの開発と活用にあたり、重視すべき6つの倫理的要件を発表した。

同ブログでは、世界中のマイクロソフト研究所は、人類にとって最も深刻な疾病の1つである癌の治療法を試験管や医療機器ではなく、AIと機械学習により発見しようとしていることを一例として挙げている。

同社は、機械学習と自然言語処理を活用することで世界の癌専門医に対して、膨大な研究資料を調査するための直感的な方法を提供し、患者に対して最も効果的で個別化された癌治療法を発見できるよう支援。また、機械学習とコンピュータービジョンの組み合わせにより、放射線科医が患者の腫瘍の進行状況を詳細に把握し、その治療法を発見できるように支援している。

  • 米マイクロソフト ブログ画像

しかし、AIが社会の困難な課題を克服する可能性はあるが、その可能性を最大化するためには大量のデータを収集し、集約し、共有することが不可欠だという。

そして、この点はユニバーサルアクセス、プライバシー、透明性などに関する倫理上の議論を引き起こし、ある意味でAIは人間のテクノロジーとの関わり方を変化させており、テクノロジーの信頼とは何かを再考することが必要になっているとの認識を示す。

さらに、社会的レベルではAIによる意思決定プロセスの強化が続く中、どのようにすればAIがあらゆる人を公平に扱うようにできるのか、また普及が進むだけでなく、知的で強力になるAIシステムの説明責任を人や組織が負っていくようにするためには、どうしたらよいのかと問題提起している。

これらはAIの普及が加速する中において、個人、企業、政府が熟慮・分析し、解明しなければならない重要な疑問点だと指摘している。

同社はAIの可能性をフルに発揮するためには、信頼という堅固な基盤が必要であると考えている。AIソリューションが最大限のセキュリティ、プライバシー、安全性を提供できなければ、ユーザーは使用しないほか、AIの恩恵を最大限に享受するためには、これらの質問への答えを見つけるために協力し、人々が信頼できるシステムを構築しなければならないという。

最終的にAIが信頼できる存在であるためには、透明性、安全性、多様性に加え、最高水準のプライバシー保護を維持しなければならないと考えており、AIによるソリューションの開発と展開の中核にあるべきものとして「プライバシーとセキュリティ」「透明性」「公平性」「信頼性」「多様性」「説明責任」の6つの基準を設定している。

  • プライバシーとセキュリティ
    他のクラウドテクノロジと同様に、AIシステムはデータの収集・使用・保存を規制するプライバシー法に準拠し、個人情報がプライバシーの基準に合致して使用され、悪用や盗難から保護されるよう保証しなければならない。

  • 透明性
    AIが人間の生活に対して影響が増すにつれ、どのようにしてAIが判断したかを人々が理解できるようAIシステムの機能に関する背景情報を提供し、潜在的な偏見、エラー、予期せぬ結果を容易に特定できるようにしなければならない。

  • 公平性
    AIシステムが例えば病気の治療や雇用に関する判断を行う時には、同様の症状または技能者であれば誰に対してでも同じ判断を行うべきであり、公平性を保証するためにはバイアスがAIシステムにどのように影響を与えるかを理解しなければならない。

  • 信頼性
    AIシステムは明確な条件の下で動作し、予期せぬ状況においても安全に応答することで、想定と異なる形で進化していかないように設計されなければならなく、AIシステムをどう展開して、いつ展開するかの意思決定においては、人間が重要な役割を果たさなければならない。

  • 多様性
    AIソリューションは不用意に人々を排除することになる製品や環境の潜在的障壁を予期した多様性のある設計規範により、広範な人間のニーズと体験に対応しなければならない。

  • 説明責任
    AIシステムを設計し、展開する人々はシステムの動作について説明責任を負い、AIの説明責任の基準はヘルスケアにおけるプライバシーなど他の分野での体験と実務に基づくべきであり、システム設計段階だけでなく、継続的に遵守されなければならない。

これらの6つの基準が同社のAI 製品とサービス設計の規範となっており、同社は製品がこれらの基準に準拠するかを制度的に確認するための社内委員会を設置している。

AIのことがもっとわかる!
【連載】教えてカナコさん! これならわかるAI入門