IntelのIDF(Intel Developer Forum)が9月13日(米国現地時間)から開催される。その前日である9月12日にはプレス向けのカンファレンスが開催された。この開催前日のカンファレンスはDay0ともよばれ、開催されないこともあるが、プレスむけにIntelの現在の状況などを説明するイベントでもある。ただし、ニュースが事前に流れることを防ぐためか、IDF自体についてはほとんど語られない。
今回は、Intelの研究についての概要説明が中心で、現在Intelが研究中のテーマなどのデモが行われた。ここでは、そのデモ会場のレポートをお届けする。
画像を認識して自動検索
以前のIDFで、Intelはモバイルコンピュータのカメラで建物などを撮影、これを認識して検索を行うという将来コンセプトを提示したことがあった。
これを研究しているのが「Mobile Augmented Reality」Projectだ。Atomプロセッサを搭載した小型のモバイルデバイスにはカメラや方位センサー、GPSなどが搭載されており、クラウド側のシステムに画像と位置情報などを送信する。クラウド側では、あらかじめWikiPediaやGoogle Imagesを使い、画像と位置および該当のWikiPediaページへのリンクを含むARタグのデータベースが構築されている。
サーバは送られてきた画像のマッチングや位置情報による検索などで該当の場所を特定、場所につけられているタグの情報を送信する。
クライアントはこれを受信すると、カメラからの画像にタグを重ねAR画面を生成して表示させる。
タグなどの検索をサーバ側で行うことで、クライアント側は膨大なデータベースを持たずにすみまた、検索などを行わないため過大な処理を行う必要もなく、スマートフォンのようなマシンでもARを実現することが可能だ。
「Mobile Augmented Reality」のシステム図。PCと比較して制限のあるスマートフォンのような機器から情報をサーバに送り、サーバ側で情報を返すことでARにおけるタグ付けなどに対応している |
物体やジェスチャーを認識しインタラクションを行なう
Project OASIS(Object-Aware Situated Interactive System)は、実世界の物体や人のジェスチャーをリアルタイムで認識し、コンピュータと人とかディスプレイなどを介さずにインタラクションする方法を研究するものだ。具体的には3Dカメラとプロジェクタを使い、たとえばキッチンのテーブルの上にある物体を認識、ジェスチャーに応じてテーブル上にメニューなどを表示する。テーブルに肉や野菜をおくと、これを認識してこれらを使うレシピを表示するといった使い方ができる。Intelは、このシステムの動作に必要な3Dカメラやプロジェクタ、PCなどが将来的には携帯電話程度のサイズになり、家庭や個人で簡単に導入できるものになるだろうと予測している。
物体認識を教育分野で利用
Classmate Assistは、Intelが開発したClasmate PCを使ったデモンストレーション。AtomベースのClassmate PCに装備されているカメラで物体の認識を行い、実世界の物を使った教育システムなどの構築を考えるもの。デモは、カメラが、指定の範囲に置かれたコインをリアルタイムに認識してその種別をイメージで表示するもの。数学の初歩的な教育などに利用できるという。
Classmate Assistのデモ。Classmate PCのカメラはそばの4つのコインを認識している。その他のコインはカメラに写っているが認識はされていない。このようにあまり解像度の高くないカメラでも、物体の種類や場所を認識させることができる |
テレビなどでアプリケーションを同時実行させる
Multi-app Framework for TVは、インテルがスマートTVむけに開発したアプリケーションの開発フレームワークで、リッチなユーザーインターフェースを実現するために複数のアプリケーションをTVのようなリソースの限られたシステム上で実行させるためのもの。システムはAtomプロセッサベースのCE4100を使ったHDTV用のセットトップボックスで、OpenGLを使った3次元表示なども可能だという。複数のプログラムがチューナーなどの限られたリソースを同時に利用できるように管理を行うことができるという。