2013年10月24日から26日まで、日本科学未来館にて「デジタルコンテンツEXPO 2013」(DC EXPO)が開催された。クリエイティブ系の企業によるデジタルコンテンツだけでなく、大学や研究機関などのエンターテイメントに転用できそうなデジタル系技術も体験できるのがDC EXPOの魅力だ。そうしたコンテンツの中で、ロボット系を中心に個人的に面白かったものをピックアップして紹介する。

ハプティックインタフェースとHMDを使って初音ミクと握手!

まずはロボット系の展示ということで(厳密にはロボットではないのだが)、一番の話題だった「Oculus Festival in Japan(Ocufes)」による、6軸(前後・左右・上下)ハプティックインタフェース(画像1)を使った「手」と、ヘッドマウントディスプレイ(HMD)を装着して見るステレオVR映像を利用し、初音ミクと握手できるという「Miku Miku Akushu」(画像2)から紹介しよう。手と映像の初音ミクが連動しており、握手してリズムよくシェイクするとニッコリと微笑んでくれるというもの。さらに、手前に強く引っ張ると彼女が驚き、困ったような表情になる。いきなり引き寄せられて抱きつかれるとでも思ったのだろう(笑)。

いやまぁ、カワイイから抱きつきたくはなるのは事実だが、さすがに抱きつけるような女性型インタフェースやアニメーションまでは用意されてないので、「続きは脳内で」という具合(抱きしめ用インタフェースには大阪大学の石黒浩教授の「ハグビー」を使うと良いかもしれない?)。これ以上書くと、初っぱなから筆者の妄想を垂れ流すだけの記事になってしまうので控えるが、ちょっとアヤしい気持ちにさせられる(笑)システムだった。

画像1(左):6軸ハプティックインタフェースを使った初音ミクの「手」。 画像2(右):「手」と連動したVR映像。実際にはHMDを被って見るので、立体的に見えるように2つの映像が用意されている

インターネットを活用して自己学習していくロボット

続いては、ロボットを活用した展示。東京工業大学の長谷川修准教授の研究室による「人工脳SOINN(Self-Organizing Incremental Neural Network)」だ。SOINNは自己増殖型ニューラルネットで、ビッグデータ問題の解決に向けたアプローチの1つとして研究されている技術である。特徴としては、計算が軽く、ノイズ耐性を有し、事前にモデルの設定の必要がない完全オンライン機械学習手法である。

これで何ができるかというと、インターネット上の情報など、何がどの程度含まれているかまったくわからないようなデータのオンライン解析に活用することができるというわけだ。今回は、川田工業の上体ヒューマノイドロボット「HIRO」(画像3)を用いて、「自分で賢くなるロボット」というデモを行っていた。

とはいっても、さすがに何でもかんでも学習して知識を増やしていくというわけにはいかないので、今回は「マテ茶のカップを取って」という音声での依頼を受けて周囲に置かれたいくつかの入れ物から湯飲みを選択し(画像4)、さらに「冷たいマテ茶が飲みたい」という要望に対しては、氷を追加するという内容が行われた(動画1)。

もちろん、インターネットの情報は玉石混淆でそこにウソや間違いも混ざってはいるわけだが、情報量としてはとてつもないわけで、SOINNが実用レベルになってそこから適切なデータを選び出して使えるようになれば、かなりいい人工知能ができるのではないだろうか。ぜひ期待したい。

画像3(左):川田工業の上体ヒューマノイドロボット「HIRO」。 画像4(右):HIROの周囲に湯飲みと日本茶と紅茶が入っているボトルと氷(を模したもの)が用意されており、それを使ってデモが行われた

動画
動画1。HIROを使った人工脳SOINNのデモ

自分の好きなキャラと触れ合える「バーチャルヒューマノイド」

続いては、横浜国立大学VBL(ベンチャー・ビジネス・ラボラトリー)に属する異次元の「バーチャルヒューマノイド」。ロボットとARを組み合わせた技術で、ロボットをヘッドマウントディスプレイ(HMD)で見ると、自分で設定したキャラクターにできるという具合。お気に入りのキャラクターがただのCGではなく、物理的にも接触できるというわけだ(動画2)。

遠隔教育、対人トレーニング、そしてエンターテイメントといた用途が検討されているようだが、どちらかというと、エンターテイメントの中でも子ども向きがよさそうな気がする。子どもの遊び相手として、好きなキャラクターをダウンロードできて遊べたりするといいのではないかと思うが、子どもがHMDをかぶり続けるのは嫌がりそうだし、ロボットを乱暴に扱って壊したりしそうで、そこら辺は工夫が必要なようだ。

動画
動画2。バーチャルヒューマノイドとそのAR映像

毛の動きを活用したインタフェース

次もロボット系。電気通信大学大学院 情報システム学研究科の野嶋琢也准教授の研究室とシンフォディア・フィルによる「Hairlytop Interface:毛をモチーフにした柔らかいインタフェース」だ。Hairlytop Interfaceとは、形状記憶合金(SMA)を使った、細くて柔軟なアクチュエータの集合体のことである。各アクチュエータにはSMA入りの細いシリコンチューブの毛状部分と、小型駆動回路から構成されていて、動物をなでた時のような感じで、わさわさと動くのだ。実際には動物の場合は毛の下の筋肉が動いているわけだが(毛が逆立ったりもするが、別に毛そのものが動いているわけではない)、Hairlytop Interfaceは毛そのものが動くことで、そうしたわさわさ感を再現しているのである(動画3)。

動画
動画3。ウネウネと映像に反応して動くHairlytop Interface

そのほか、お腹のセンサでエサを見ると尻尾を振るウマのロボットとか(画像5・動画4)、タブレットのアプリの犬(のかわいい顔)と連動した尻尾(だけが実物として動く)が、その犬が喜ぶボタンを押して上げると楽しそうに振るというものもあった(動画5)。

画像5。ウマロボットのお腹にセンサがある
動画4。エサに反応する様子
動画
動画5。こちらはアプリの犬を喜ばすと連動して振られる尻尾