【レポート】第21回ロボット工学セミナー(1) - ロボットとビジョンシステム

東京理科大学神楽坂校舎で開催された「第21回ロボット工学セミナー」のテーマは「ビジョンシステムの基礎と応用」。オーガナイザは航空宇宙技術研究所・宇宙研究センターの西田信一郎氏。

近年、画像素子、演算処理装置の小型化・低コスト化が進んでいる。それに伴い、ビジョンシステムを工場の生産ラインなどに適用するケースも増加している。一方、ロボットへの適用に目を向けるとなかなか進んでいないのが現状のようだ。ロボットは高額であるため、人間が行ったほうが低コストで済むというのが原因のひとつであるという。また、画像センサや画像処理技術を実システムに適用するための情報が十分に整理されていないという面もあるようだ。そのため、今回のセミナーは、ビジョンシステムの基礎を整理して示し、最先端のビジョンシステムの適用例を紹介することで、ロボットへのビジョンシステムの応用・普及を図ろうという目的で開催された。講師とセミナーの内容は以下の通り。

  1. 「ビジョンシステムの総論」白井良明氏(大阪大学)
  2. 「ビジョンシステムの産業用ロボットへの適用」中村洋一氏(川崎重工業)
  3. 「自動車用ビジョン・システム」塙圭二氏(富士重工業)
  4. 「エンタテインメントロボットにおけるビジョンシステム」河本献太氏(ソニー)
  5. 「宇宙開発へのビジョンシステムの応用」片山保宏氏(航空宇宙技術研究所)

○1.「ビジョンシステムの総論」白井良明氏(大阪大学)

ビジョンシステムの第一人者である大阪大学大学院工学研究科の白井良明氏によるセミナーでは、ビジョンシステムに関する総論が示された。

そもそもビジョンシステムは、工場の生産ラインなどで部品の位置決めや選別などを行うための技術として開発が進められた。しかし最近は、自動車への応用など工場内から屋外での利用へと適用範囲が広がってきているという。現在、最も注目を集めているのが自動車への応用であるが、他にも道路認識や障害物認識、監視、ロボットと人間とのコミュニケーションを図るためのヒューマンインタフェース、CGへの応用などが進んでいる。ロボットビジョンの応用分野としては介護ロボット、ペットロボット、監視、ITSなどがある。

ビジョンの機能を階層的分類すると以下の4つに分けられる。下に行くほど高度な技術が要求される。

  1. 一次特徴レベル:一様な色やテクスチャ領域の抽出、距離画像からの平面領域やエッジの抽出
  2. 組み合せ特徴レベル:位置合わせ、パターンマッチング(データの中から特定のパターンを見つけること)、ステレオ視、オプティカルフロー検出(画像中のある点や図形が次の瞬間にどの方向へどの程度の距離を移動するかを示すベクトルのこと)
  3. 意味レベル:物体認識、動物体検出と追跡、目や鼻などの特徴検出・識別
  4. 目的レベル:異常検出、障害物認識、監視

・主な画像処理

ロボットビジョンに必要な機能を実現するための主な画像処理には次のものが挙げられる。

1. レンジファインダ:これは距離画像計測装置で、シーンの3次元データをコンピュータに取り込むことで、障害物の検出、人や顔、ジェスチャーを行っている人の手の位置決めなどを行うことができる。現在、一定の高さの距離を知ることができる「レーザレンジファインダ」、距離測定をするための「ステレオ視」、「3眼視」、レーザ光を投影して距離を測る「レーザレンジファインダ」、レーザ光を投影して反射して戻るまでの時間を測定する「time of flight方式レンジファインダ」などが研究・開発されている。

2. 対応問題:画像の一部に類似した部分を別の画像から探索するというもので、ステレオ視、オプティカルフロー抽出、パターンマッチングなどの基本となる。ブロックマッチングと呼ばれるものもあり、これは画面を格子状に分割し、各ブロックが次のフレームでどの位置に移動したかを示すベクトルを求めるもの。ひとつ前の画像フレームに対応する部分との差だけを記録することで、画像圧縮ができ、画像処理時間の短縮が図れる。

3. 固有空間法による認識:固有空間法とは、多数のデータを分析して主成分を取りだし、それを用いて元データを近似することにで、効率的なパターンマッチングを行うというもの。現在、顔認識の標準的な手法となっている。

4. 相互部分空間法による認識:顔を認識する場合、顔は時間とともに変化するため、1枚の画像から認識することは困難。そこで、一定時間に得られた複数の顔辞書パターンの分布との類似度に基づいて認識を行おうという方法。各自に対して複数の顔画像から固有空間を作り、これを各自の顔のモデルとする。認識する際には、時間的に連続する複数の顔画像を入力し、それから固有空間を求める。類似度は入力画像の固有空間とモデルの固有空間のなす角度で表す。この角度が小さいほど類似しているとする。固有空間法よりも認識率は高い。

5. 顔の検出:画像の中から人の顔の検出をする場合、背景に肌色を許すか、画像の中で人だけが動いているか、複数か、また重なって見えるか、顔は前向きかといったさまざまな条件によって、顔検出の難易度は異なる。検出方法は色々あるが、一例は白井氏のWebサイトをご参照いただきたい。

6. 人の追跡:人を追跡するためには、人の発見と発見した人の追跡が必要である。また、人の発見には、肌色、画像の背景差分、距離画像の背景差分、画像の時間差分、オプティカルフローといった手がかりが使われている。人のモニタリングや監視のほか、人のジェスチャーや姿勢の認識、顔認識のための前処理としても使われる。

7. ジェスチャー、手話認識:言語と並ぶ有効なヒューマンインタフェースであるジェスチャーのうち、手を大きく動かすジェスチャーをビジョンで認識することは、背景差分、色、オプティカルフローなどで簡単な特徴を求めるだけで十分だが、手指の動きを加えると複雑になるため、3次元形状モデルを用いるなどさまざまな手法が研究されている。

・今後のロボットビジョン

講演では、今後のロボットビジョンとして、「手と目を持つサービスロボットとのインタラクション」などが紹介された。

介護ロボットやペットロボットの場合、ロボットに全ての画像処理を任せなくても、人がロボットビジョンを助けることが可能だ。そのことにより、技術的なハードルをかなり低くすることができる。例えば、冷蔵庫の中にある飲み物をロボットに取ってきてもらう場合、ロボットの見ているシーンを無線で人も見ることができれば、ロボットとコミュニケーションを取ることで、ロボットビジョンを助けることができる。ロボットビジョンが冷蔵庫内を検出する場合、あらかじめ検出する物体の画像を登録しておいたとしても、照明や隣接物体の映り込みなどにより色が変化している場合や、特徴が他のものなどによって隠蔽されている場合などがあり、臨機応変な対応が求められてしまう。そこで、冷蔵庫の中の画像を人がポインティングデバイスで指示したり、音声対話によって指示したりすることで、ロボットビジョンを補助できるというわけだ。例えば、隠れている缶を指定する場合、前の物体を教えることで、ロボットは奥にある缶を見つけることができる。つまり、人とのインタラクションに着目することで、ロボットビジョンの実用化の時期を早めることができるのである。

【レポート】第21回ロボット工学セミナー(2) - 産業用ロボットとロボットビジョン
http://pcweb.mycom.co.jp/news/2003/09/30/27.html
へ続きます

(山田久美 k-yamada@pc.mycom.co.jp)

【レポート】第20回ロボット工学セミナー(1) - クローニング技術のこれから
http://pcweb.mycom.co.jp/news/2003/05/19/23.html

日本ロボット学会
http://www.rsj.or.jp/



人気記事

一覧

イチオシ記事

新着記事