ディープラーニングの先にあるものとは? - 東大 松尾准教授が語った人工知能の未来(前編)はコチラ

ディープラーニングの話題一覧はコチラ

第3次の人工知能ブームの到来

第2次のブームが去った冬の時代にもコツコツと研究を続けたトロント大学のHinton教授の提案した、オートエンコーダの考え方でブレークスルーが起こった。次の図の○はニューロンで、下側からの入力に重み(図には書かれていない)を掛けて合計し、それを非線形の活性化関数を通して出力値を計算し、上のニューロン層へ出力するという働きを持っている。

次の図のように、入力層と出力層の間に隠れ層を持つ構造で、多数の入力に対して入力と出力が同じになるように、それぞれのニューロンの入力の重みを調整する。入力と出力が同じにできたとすると、隠れ層の状態から入力が完全に復元できることになり、入力の情報は全て隠れ層の出力に含まれていることになる。隠れ層のニューロン数は入力層のニューロン数より少なくなっているので、隠れ層の出力は、入力を圧縮したものとなっている。

この原理を使って、正解を与えることなしに、入力の特徴を抜き出すようにニューロンの各入力の重みを調整することが出来るようになった。つまり、表現法が分からない問題についても特徴の抽出ができるという大きなブレークスルーとなった。

出力層の出力に入力と同じものが出るようにニューロンへの入力の重みを調整する。これが出来たら、中間の隠れ層の出力に入力の情報はすべて含まれていることになる。(なお、この記事の以下の図は、すべて松尾准教授の発表スライドを撮影したものである)

なお、この図では紙面の都合で少数のニューロンしか描かれていないが、例えば、LeCunの手書き文字の認識の初段では、32×32のピクセルの入力を28×28ニューロンの層に圧縮しているというように、多くのニューロンが使われている。

多数のニューロン層を重ね、オートエンコーダの考え方を使って重みを調整していくと、次の図のように、斜めの線をもつ入力に強く反応するノード、人の顔に反応するノード、猫の顔に反応するノードなどが自然に表れてくる。

ただし、このネットワークは、これは人の顔とか猫の顔という実体の概念は持っていないのでシンボルグラウンディングングの問題は解決されていない。

多層のニューロンネットワークをオートエンコーダの考え方で重みをチューニングして行くと、4段目の1つのノードは斜めの線に反応し、7段目の1つのノードは人の顔、8段目の1つのノードは猫の顔に反応するということが起こってくる

ILSVRCという画像認識のコンペティションがある。2012年のコンペティションでは、色々な専用アルゴリズムを使って対象を認識する従来の方法では、ベストなものでも27%程度のエラー率であったが、Hinton教授のグループのSupervisionというシステムが15.3%のエラー率を達成して優勝した。それまでは、毎年1%エラー率が下がるという程度の改善トレンドであったので、一気に10%を超える改善は、研究者を驚かせた。その結果、2013年にはほとんどのシステムがHintonのDeep Learning方式になってしまったという、大ブレークスルーであった。

この考え方は以前からあったが、実際には、ノイズなどがあると結果に影響を与えてしまうため、うまく動かなかった。ノイズがあっても正しく動くという強固なシステムを実現するには、GPUを100台並列に使うというような、大きな計算機パワーが必要であるという。

Hinton教授のグループのDeep Learningは人工知能に関する50年来のブレークスルー。この考え方は古くからあったが、実用化には強力な計算機パワーが必要だった

次の図の画像の特徴を抽出する(1)はほとんど完成しており、人間を超える認識率を実現している。(2)の画像に加えて音声やセンサデータなどを含むマルチモードデータの抽象化の研究も盛んに行われている、(3)の自分の行為と観測データを組み合わせて行為と帰結の抽象化ができてくると、フレーム問題の解決が見えてくる。

そして、(4)は固定した状態だけでなく、動詞や形容詞で表わされる状態を含む抽象化、(5)の言語表現とシンボルの結合、(6)の言語とシンボルを結合した大量のデータの処理による知識の獲得と研究が進むという。

画像の特徴を抽出する(1)は、ほとんど出来た。今後の研究としては(2)~(6)のようないろいろなデータを含む入力から、特徴の抽象化に挑戦すること必要になる。これらが出来ると適用範囲が大きく広がる

そして、松尾先生は、(1)~(6)の技術の発展のタイムテーブルと、その技術でAIが出来るようになる仕事を示す図を見せた。

(1)~(6)の技術の発展と社会への影響。(3)では自動運転、(4)では家事、介護、(5)では自動翻訳、(6)ではホワイトカラー支援など広範な仕事ができるようになる

AIの台頭による仕事に変化については、5年以内に特定の分野でのAIの適用は急速に進むが多くの分野ではビッグデータやAI化の速度は比較的ゆっくりであろう。5年~15年先の中期では、異常をモニタする監視系の業務はAIで置き換えられる。また、数を数えるようなルーティンの仕事はAIがやることになる。15年以上先の長期では、仕事は2極化し、大域的判断を必要とする仕事や対人間の高級なインタフェースは人間を必要とするが、その他の仕事はAIが担当することになると予想している。

5年以内に特定の分野でのAIの適用は急速に進む。5年~15年の中期では、監視系の業務はAIで置き換えられる。15年以上の長期では2極化し、大域的判断を必要とする仕事や対人間の高級なインタフェースは人間を必要とするが、その他の仕事はAIが担当すると予想

現状では、Hinton教授のおひざ元のカナダや、Hinton教授のベンチャー企業を買ったGoogle、Microsoft、Baidu(中国の会社であるが、Stanford大学のNg教授を責任者に据え、シリコンバレーに大規模な研究所を持つ)、Facebook(LeCun教授がリーダー)などのネットジャイアントを抱える米国が先行しているが、日本の人工知能学会も3000人の会員を抱えており、将来的には十分対抗できる可能性はあるという。

未来学者のレイ・カーツワイル氏は人工知能が人間を超えた時が特異点となり、人工知能が人工知能を改善することで進化が急激に加速し、人間の仕事は無くなってしまうというシンギュラリティ理論を唱えているが、松尾先生は「人間=知能+生命」であり、人工知能が人間の知能を超えたとしても、生命を作ることは極めて難しく、シンギュラリティは起こらないという。しかし、悪意を持った人間がこの技術を独占したり、悪用したりすると危険であり、人工知能学会では倫理委員会(松尾先生が委員長)を立ち上げて検討を行っているという。

ディープラーニングの先にあるものとは? - 東大 松尾准教授が語った人工知能の未来(前編)はコチラ