新年明けましておめでとうございます。今回から数回にわたって、本編のRGB-Dセンサーの応用編の中休みも兼ねた新春企画として、「3Dデプスセンサーを用いた注目の新ベンチャー企業」というテーマで記事を書かせて頂きます。

本連載ではコンピュータビジョン技術とその応用について紹介しておりますが、コンピュータビジョンに限らずIT・インターネット関連技術を用いた産業分野全般において、(とりわけB2Cの)「新興ベンチャー」が世界中で数多く生まれているのはご存知の通りです。かつての「Web2.0」時代では、PCやカメラデバイスの非力さによりコンピュータビジョンの技術を消費者向け価格で実現しにくかったことや、そもそも画像認識アルゴリズム各種が成熟していなかったこともあり、インターネット界隈ではコンピュータビジョン技術が中心的存在になる例は限られていました。それが近年では、iPhoneをはじめとしたスマートフォンの普及や、Kinectセンサーの登場や画像による3D計測技術の進展、ならびにコンピュータビジョン関連分野での各種パターン認識技術の急速な発展(顔認識、大規模物体認識、その他)などもあり、ここ1~2年でそれらのコンピュータビジョン技術の最新技術の実応用を狙った注目の新興企業が数多く出て来ています。

今回紹介したい企業はたくさんあるのですが、今回はRGB-Dセンサー、3Dスキャナの応用を狙う、サービス開始直前の注目の3社(Occipital、Matterport、Floored)に絞って紹介をいたします。今回紹介する3社を通して、どういった形で今後3Dコンピュータビジョン技術が皆様の生活や仕事に関連するようになるのかのイメージが膨らむはずです。それでは最初は、OccipitalのStructure Sensorという製品から紹介します。

iPadにはめて使えるモバイル3Dセンサー:OccipitalのStructure Sensor

米国のOccipitalという会社が3年の開発期間を経て、現在発売間近の状態にある、iPad向けの一般消費社向けのRGB-Dセンサーが「Structure Sensor」です。まずは、以下のOccipitalのKickStarter向けのPR動画をご覧になってみてください。

Structure Sensorは、非常に小型の3D撮影センサーをiPadに固定して接続し、(PrimeSenseのセンサーのように)RGB-Dデータの動画撮影が可能になる製品です。またその撮影と撮影したデータに対する各種処理が、iOS向けの専用のSDK(software development kit)の提供により可能になる予定です。米国では1台349ドルで販売されます。

このPR動画では、まず「POSSIBILITIES(動画中1:00ごろ)」というセクションで、「このセンサーでどういったことができるようになるか」という可能性の例が順に示されています。iPadで手に持ちながら、部屋の中や対象物体の周囲を動き回りながら撮影することで、物体や空間を3Dスキャンできるという「ハンディ性」と「3Dスキャニング」が強調されています。同じく低価格の大衆向けデプスセンサーであったKinectは,人物姿勢推定技術(今後、この連載で解説予定)を用いた非接触のゲームコントローラとして、「据え置き固定で」用いるものとして登場しました。もちろんKinectやその他の大衆向けRGB-Dセンサーも結構小さいので手で持ちながらスキャンはできるわけですが、このStructure Sensorは小型で軽量でありiPadに据え付け使う事ことによる、ハンディ性を売りとしているのが新しい点で、これにより大きく3Dデータの活用性が広がる可能性があり、注目を集めています。

次に、以下の動画はTechCrunchによる、Occipital CEOへのインタビュー動画です。この動画では、iPad上で動いている各種デモアプリ(物体スキャン、部屋のスキャン、ARアプリなど)が紹介されており、Structure Sensor + iPadでどういった事が実現できるのかの具体的なイメージがつきやすいかと思います。

このようにiPadユーザーであればStructure Sensorを購入すればすぐに3Dスキャンを始めることができます。椅子や机などの物体をスキャンするにはハンディ型の3Dスキャナは持ってこいで、昨年から流行が始まっている3Dプリンタの元データの撮影にも向いています。(ただし、動きながら撮影した各フレームを後で1つのデータに位置合わせしているので、必ずしも正確な3D形状が得られるわけではないことには注意です)。

また、PR動画中ではARでゲームを行うデモアプリも示されています。旧来のRGBカメラのみによるARでは、四角形で平面形状のマーカーや、平面的な地面や壁テーブルは3D的に把握することができませんでした。なぜなら画像で撮影しているので空間全ての3D形状を知りながらCGモデルを表示することはできず、マーカーの2D平面の空間中における3D姿勢を計算する事で、その平面を基準とした3D空間のみを計算することができたからです。

一方、iPadを手に持ちながらStructure Sensorで撮影している3DデプスデータによりARを行うことができるということは、Structure Sensorでデプスが撮影している範囲全ての3D形状を把握しながらARを表示できるということを意味します。つまりは、平面性の少ないでこぼこした表面や、丸い円柱の表面などにも、ただしく3DモデルをARで表示できる可能性が生まれるわけです。そもそも、小型軽量のRGB-DセンサーをiPadにつけて持ち運べるということは、(RGB-Dセンサーが撮影可能な室内に限りますが)どんな場所でも3D空間の形をセンシングして知る事ができるようになるという利点があります。

開発者向けのSDKも同時に登場するこのStructure Sensorの登場で関連アプリも増えて、3Dコンピュータビジョンの応用が大きく広まる可能性があります。注目してみてください。