大阪大学(阪大)は9月25日、レーザープロジェクターを対象として、従来必要とされてきた特殊パターンの投影やカメラ計測が不要な、新しい自動位置合わせ技術の開発に成功したと発表した。

同成果は、フランス・ナントにて開催される拡張現実感・ARに関する主要な国際会議ISMARに採択され、10月11日に口頭発表を行う予定となっている。

提案システムと計測原理の概要(出所:大阪大学Webサイト)

近年、プロジェクションマッピングは、巨大な建築物に映像を投影する従来型だけでなく、ダンサーや歌手のように動いている人に対する動的なプロジェクションマッピングを目にする機会も増えている。プロジェクションマッピングで所望の映像効果を得るためには、対象に位置ずれなくぴたりと映像の位置を合わせる必要がある。また、通常の平面スクリーンであれば手動で簡単に投影映像の位置合わせをすることができるが、プロジェクションマッピングでは平面でない物や動いている物や人に映像を投影しなければならず、手動での位置合わせは大変困難となる。

レーザープロジェクターは、レーザー光を2次元的に走査することで映像を表示するため、各画素は1枚の画像を表示する間に1度だけ、ある決まったタイミング(画像表示の基準時刻からの時間)で照射される。

そこで今回の研究では、対象面に光センサーを埋め込み、映像コンテンツを投影している際に、センサーに照射しているプロジェクター画素の位置をその受光タイミングから求めることで、投影映像を対象面に位置合わせすることを実現。さらに、従来の位置合わせ技術における種々の技術的制約を解消できることを、試作システムを用いた実験により明らかにした。

また、光センサーをプロジェクター側に設置して、対象面からの投影コンテンツの反射光を逐次計測することで、プロジェクター画素と対象面の模様との位置対応を求めることを実現した。これは、プロジェクター視点で撮影するカメラを擬似的に再現したことに相当するもので、これを用いて、従来の画像マーカー(QRコードのような2次元の印刷パターン)を用いたカメラ計測に基づく位置合わせを、カメラなしで行うことが可能になったとしている。

今回の成果を受けて研究グループは、今後、IoT化が進むと、ネットワーク接続された光センサーが更に多量・高密度に生活空間に組み込まれていくことが予想されるとしている。また、佐藤教授らの研究グループが開発した技術によって、生活に密着したさまざまなプロジェクションマッピングによるサービスを、カメラを用いる追加の計測系を必要とせずに提供できるようになると期待されるとコメントしている。