Intelは10月3日、AI(人工知能)の原則、戦略、社会実装などを含む同社のAIポリシーについての説明会を実施。AIのほか、サイバーセキュリティ、プライバシーなどのデータ公共政策まで広くAIを活用するために必要な考え方などを企業のみならず、政府機関なども交えて掘り下げ、社会への浸透を図っていくことの重要性を示した。
「AIは現在、経済活動が行われるすべての分野に導入されようとしているが、実際に実装・導入しようとする際には、インターネット黎明期のころ、社会に受け入れられるためにさまざまな課題を乗り越えたように、AIでも同じように課題を乗り越えていく必要がある。もはや現代はAIをどう開発するか、ではなく、どのように社会に実装し、自動運転や医療、農業などそれぞれの分野でどのように活用していくかを学ぶ時代であり、課題もそれに基づいたものとなる」とIntelのアソシエイト・ゼネラル・カウンシル 兼 グローバル・プライバシー・オフィサーのディビッド A ホフマン氏は現在の社会背景を説明する。
日本政府は、2019年3月に「人間中心のAI社会原則」を公開したが、その基本理念は以下の3点となる。
- 人間の尊厳が尊重される社会(Dignity)
- 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
- 持続性ある社会(Sustainability)
ホフマン氏はこの政策について、「すばらしい理念であり、Intelもこの3つの理念を持ってAIの実装を日本で進めていくことに賛同する」と評価する。また、Intelとしても「AIを活用することですばらしい未来が切り開けると考えている。もはや人の能力の限界を超えて社会課題は複雑に絡み合っており、それを解決しつつ、経済を活性化させるためにはAIの活用が不可欠だからだ。だからこそ、IntelのAIポリシービジョンとして『Innovative』『Trusted』『Inclusive』という3つの原則を掲げ、各国政府とともに協力してAI社会の実現を目指している」と、もはやAIの活用は避けられない状況にあり、その実現のために、3つの原則に基づく行動を推進していることを強調する。
こうしてIntelが掲げる3つのビジョンのうち1つ目の「Innovative(革新的)」について同氏は、「InnovativeなAIという文言は、『人間中心のAI社会原則』の中にも書かれているが、Intelも時間をかけて各国政府とともに促進することを目指している」とのことで、国家レベルで時間をかけてAIに関する基礎研究に必要となる予算を増やし、常に研究を進めていかなければ、社会課題の解決にはたどり着けないとの見解を示し、それを社会実装に結びつけるためには、その国にとってもっとも解決しなければいけない社会課題は何かを特定する必要があり、多くの先進諸国ではその1つとして医療分野の抱える問題が挙げられるだろうとした。「高齢化や医療技術の進歩などに伴う医療費の増大は先進諸国全体の問題となってきているが、一方で医療によって命を救う、ということは重要な命題である。この医療費を削減しつつも、患者の命を救う、という両立をAIを活用すれば、実現できる可能性がある。何もAIが患者の病気を診断して医師を不要にする、というわけではなく、医師が行わなくても良いような作業をAIが代替することで、医師は患者の治療のためにより多くの時間をかけられるようにするということである」と、1つの例として医療現場における課題と、そのAIによる解決策を示した。
また、2つ目の「Trusted(信頼されるAI)」については、「Intelは、その長い歴史の中でさまざまな経験を蓄積してきた。我々が開発するプロセスやアーキテクチャなど、さまざまな技術についてユーザーが信頼を寄せてくれるからCPUを購入してもらえる。これはAIでも同じであり、信頼されるAIとなるために、『Liberate Data Responsibly(信頼できるデータの提供)』、『Protect Citizens' Privacy(個人のプライバシーの保護)』、『Foster Robust Security(堅牢性のあるセキュリティの促進)』、『Encourage Transparency and Explainability(透明性と説明可能性)』、『Support Global Standards(グローバルでのデジタルインフラの実現)』という5つの項目にフォーカスしている」とし、「例えば、誰も病気の治療データが適切に保管されること自体には問題はないと思うが、それを生データのまま、研究などに活用する、ということになれば患者のプライバシーという観点からすれば望ましいものにならない。『Privacy Preserving Machine Learning(PPML)』と呼ばれる機械学習で扱うプライバシー情報をどのように保護するべきか、という研究が世界各地で進められており、『Multiparty Computation』、『Homomorphic encryption』、『Federated Learning』といったようなセキュア技術も進展をみせるようになっている。適切にプライバシーを保護してデータを活用するためには、国家レベルでそういったソリューションを実装し、信頼できる形で提供できる枠組みを作る必要があるだろう」と、AIで扱うデータの信頼性は一企業のレベルに留まらず、広く検討を行う必要があるとした。
そして3つ目の「Inclusive(包括的なAI)」については、「社会に対してAIがサービスを提供していくためには、より多くの人が活用できるようにAIを実装していく必要がある。そのためには論理的な設計と実装に対する説明責任が求められる。それは企業、政府問わず、必要な説明ができるように準備をする必要性が求められることであり、特に政府は、AIを活用する社会を実現するうえで、きちんとした優先事項を決めて対応していく必要がある。人間の代わりにAIが多くの仕事を請け負えるようなれば、多くの職種が消えることになるのは疑いの余地はないが、これがAIの浸透に対して社会が不安視する原因の1つとなっている。しかし、調査データなどで示されているが、ほとんどの産業分野で創造的破壊が生じており、AIの社会浸透はもはや避けることはできない。その結果、AIが肩代わりした以上の数の人の職が失われる可能性も当然でてくる。新たな産業分野に適応させるためのトレーニングなどの支援を政府や行政は行う必要があるが、それにマッチしない人も当然でてくる。こうした問題を踏まえた社会的なセーフティネットについて今一度、改めて構築する必要がある。日本政府は、そうした分野に対する投資も行い始めており、その点については評価されるべきである」と、日本が進もうとしているAIの社会実装に向けた国家規模での動きを評価するが、その一方で、「あまり投資がされていない分野もある」と指摘。それが、AI開発のための人材育成ではなく、AIを活用していくための人材育成であるとし、「電気工事士や溶接工、大工などさまざまな従来産業における高い技術力を持っている人たちの間にもAIの活用が求められるようになってくる。こういう人たちが、AIを手軽に使えるようになって、自分たちの仕事を改善していく必要がある」と、AIをいかに使いやすいものとしていくかについての取り組みが求められるようになるとした。
なお、同氏は、「Intelがフォーカスしているのは、データを理解する一方で、それが個人にどのように影響を及ぼすのか、という点で、そのためにはテクノロジーを構築する人が、その成果物が社会にどのような影響を与えていくかを考えることができるようにある必要がある」との見解を示しており、今後、日本や米国などの各国政府とより深い関係を構築していくことで、AIの持つ可能性を国家レベルで実現していくための取り組みに結び付けていければ、としていた。