【レポート】

AIの「公平性」や「公正さ」どう担保するのか? - 米Microsoft DAVID氏

日本マイクロソフトは3月16日、AIに関するプレスラウンドテーブルを開催し、米Microsoft Vuce President 規制関連分野担当 DAVID A.HEINER(ディビッド A. ハイナー)氏が、AIに関する同社のアプローチや世界がAIについて考えなければならないことについて説明した。

同氏はプライバシー、通信、人工知能、アクセシビリティ、オンラインセーフティ分野を担当するバイスプレシデントで、人工知能のポリシーフレームワークを開発する取り組みを推進しているという。

米Microsoft Vuce President 規制関連分野担当 DAVID A.HEINER(ディビッド A. ハイナー)氏

同氏はまず、AIの有望性や可能性を次のように語った。

「現在、デバイスに搭載されているエージェントは初期的なものだが、いずれリッチなインタラクションができるようになる。いまはAIを特定のテクノロジーとセットにすることで、知覚、学習、推論、意思決定ができ、いろいろな問題を解決できる。さまざまなコンピュータの処理能力や分析能力を人間の知能と組み合わせることで、どれだけのことができるか考えてみてほしい。マシンは体験(データ)から学ぶことができ、多くの学習データによりパターンを認識する。非常に細かなパターンでも、人間にはできなくでもマシンは検知できる。そのパターンが正しければ、将来にわたって利用することができる。ただ、それが常に正しいとは限らないが、マシンは過ちから学ぶこともできる。これらを活用することによって、教育、ヘルスケア、交通、農業などでメリットを教授できる」(ディビッド氏)

同氏は、AIを利用することでの具体的なメリットを、ヘルスケア分野で2つ紹介した。

「医療過誤はガン、心疾患に次いで死亡原因の3位に挙げられるが、予防できるミスだ。これはAIの格好の適用領域であり、患者のデータをAIに与えると、医療過誤があった場合にアラートを出すことができる。それによって、死亡件数を減らすことができる。また、マシンがX線を読めるように学習させれば、ガンであるかどうかを判定できる。現在の技術では、AIはリンパガンをエラー率7.5%で検知できるが、習熟した病理学者のエラー率は3.5%だ。ただ、この2つを組み合わせれば、エラー率は0.5%になり、80%改善される。この事例からわかるように、われわれのAIに対するビジョンは、AIを人間の能力と置き換えるのではなく、拡張できるようにしていくことだ」(ディビッド氏)

そして、ディビッド氏はマイクロソフトにおけるAIのビジョンを次のように具体的に説明した。

「マイクロソフトのアプローチは、AIをすべての人が使えるようにする点にある。一般ユーザー向けに、『Cortana』(コルタナ)のようなデジタルパーソナルエージョントを提供したいと思っている。エージェントは個人の秘書のようなもので、Eメールやカレンダ情報から、今日は何をしなければならないのか、どこへ行かなければならないのかを認識して、レコメンドしてくれる。また、ほかのエージェントとの対話も可能だ。ホテルの予約について、禁煙ルームがいい、キングサイズのベッドがいいといった、ユーザーの好みを理解して、エージェントが勝手に予約してくれる。われわれは、自社の製品すべてにAI機能を持たせたいと思っている。マイクロソフトはプラットフォームの会社で、開発者はその上でAPIを使ってアプリケーションを開発できる。マイクロソフトは、AIを開発者コミュニティ全体に提供しようとしている」(ディビッド氏)

一方でディビッド氏は、AIを開発する上での懸念や課題についても触れた。1つは機会学習の際に与えるデータについてだ。

「以前の顔認証では、白人のほうがアジア人の認識より得意であった。それは米国で白人の顔でトレニーングを行ったためだ。トレーニングを行うには世界全体を対象にしなければならない。AIはデータによって人の行動をモデリングするが、システムが不十分なデータでしかトレーニングされていない場合、あるいはデータが世界全体を表現できていない場合、システムが出す答えは現実を反映していない」(ディビッド氏)

また、同氏は設計者は予想外のデータが与えられた場合の反応も、事前に考慮する必要があると指摘した。

「ヘルスケアの分野においては、ロボットが人に危害を加えてはならない。場合によっては、予想外のデータがシステムに与えられることがあり、その場合、システムがどう反応するかといったトレーニンングも必要になる。システム設計者はこういったことも考えなければならない」(ディビッド氏)

そのほか、同氏は与えるデータの公平さや公正さも重要だとした。

「米国で以前、『3人の黒人のティーンエイジャーの女の子』で検索した場合、警察の容疑者の写真が返ってきた一方、『3人の白人のティーンエイジャーの女の子』とキーワードを入れて検索すると、白人の女の子がうれしそうにバスケットを楽しむ写真があげられた。これは非常に不公平だ。それは意図的にプログラミングをしたわけではないが、人種差別があれば、それはシステムに反映され、普及してしまうということだ」と警告した。

同氏はこれらを防ぐためには、3つのステップがあるとした。

1つ目は、多様な人でAIを開発していくことだという。現在はシリコンバレーが開発の中心だが、ここでは、若い白人の男性が多いため、開発にあたっては、多様性が必要になるという。

2つ目は、分析テクニックの開発だ。システムが何かの偏見を反映している場合、それを検知する必要があるという。

そして3つ目は、ガイドラインの作成だという。

「AIのコミュニティ向けにガイドラインを作り、それによって、システムを開発するにあたって偏見がないか、公正かどうか、検討できるようにすることが必要だ」(ディビッド氏)

また、プライバシー保護の観点においても、同氏は3つの対策を挙げた。

1つは、ユーザーに対してコントロールを提供し、個人々に判断させることの必要性で、たとえば、AIにEメールやカレンダへのアクセスを許可するのかといった可否判断の機能を提供すること、2つ目は透明性で、どのデータを収集し、どのように利用しているかを明らかにしなければならないこと、3つ目はデータの安全性を担保することだという。

そして同氏は最後に、AIが人の仕事を奪うのかという懸念について、次のような考えを示した。

「AIは仕事を奪うこともあれば、新たな仕事を作ることもある。重要なのは、人間のスキルを向上させることだ。たとえば、単純な繰り返しのつまらない仕事はAIに任せ、インテリジェントな仕事を人ができるようにしていかなければならない。これは、世界中で共通な点だ」(ディビッド氏)



人気記事

一覧

イチオシ記事

新着記事