IDF基調講演のトリは、今年もIntelのVice President兼CTO、Justin Rattner氏が努めた。同氏の講演は例年、現在の製品の話というよりは、一見すると夢物語のような、しかしIntelの研究開発に基づいた、コンピューティングの未来が語られることが多い。今回の講演テーマは「Context-Aware Computing」で、状況認識型のコンピューティングという未来が語られた。

IntelのVice President兼CTOであるJustin Rattner氏

Rattner氏はまず、ユーザーとコンピュータの"関係"にはまだ改善の余地があり、コンピュータが、ユーザーを取り巻く様々な状況をもっと認識できれば、ユーザーの体験は、現在よりも良いものになるのではないかと述べる。現在の、例えば最新スマートフォンなどのデバイスには、GPSなど各種センサーが内蔵されてはいるが、それらは"デバイスの状況"を認識しているに過ぎず、Rattner氏の示すContext-Aware Computingとは異なるとされる。Context-Aware Computingでは、位置情報や周辺情報などのセンサー情報だけでなく、さらにカレンダー情報や良くアクセスする情報などの蓄積データ情報も組み合わせるなどし、デバイス自身が"ユーザーのあらゆる状況"を認識、理解することで、そこからユーザーのニーズを類推、デバイスがユーザーに新たな体験を提案することまで可能になるというものだ。

Intelが研究しているContext-Aware Computingを実現するためのアプリケーションのアーキテクチャ。これは、位置情報や周辺情報など、ハードウェア・センサーが取得した情報をどう処理するかのパイプライン図

そのハードウェア・センサーの部分に加えて、ユーザーのカレンダー情報や良くアクセスする情報といった、ソフトウェア・センサーのデータを組み合わせる。それらのデータを類推アルゴリズムにかけることで、精度の高い状況認識を実現する

これは状況認識型アプリケーションのフレームワーク。クラウド上でContext情報を集約、共有できる仕組みも考えられている。リッチなContext-Aware Computingを実現できるが、プライバシー保護が必要になるため、リリースポリシーの仕組みも導入されている

上記写真で示すようなセンサー情報から、ユーザーの状況を認識する類推アルゴリズムの実働デモンストレーション。写真の例では、デバイスは、ユーザーが会議に参加している状況であると認識。ここから例えば、モバイルフォンであれば自動でマナーモード設定へ、といった動作にも繋げられる

そういったコンピューティングの具体的な例として、Intelが、旅行関連の事業を展開するFodor's Travelと共同開発した実験デバイス「PVA(Personal Vacation Assistance)」が紹介された。PVAはポケットサイズのインターネット端末で、ユーザーである旅行者はこの端末を通して、スケジュール管理や地図データ、情報検索などを利用できる。そして、ここからがContext-Awareな部分で、以前に検索した内容や、過去の旅行の記録、現在のスケジュール、現在地など、記録されたユーザーのパーソナル情報に基づき、"状況に応じて"、PVA自身がユーザーに対し旅行先のオススメスポットや、好みにぴったりのレストランなどの情報を提供するのだ。

IntelとFodor's Travelが共同開発した実験デバイス「PVA(Personal Vacation Assistance)」

旅行者がPVAを持ってサンフランシスコに旅行にやってきたら、というデモンストレーション。デバイスが位置情報を認識している

位置情報に、ユーザーの料理の好みや、興味のある観光ジャンルなど、これまで蓄積したContext情報をあわせて、デバイスが最適なレストランなどを提案してくれる

また別の例として、Intelのラボで研究されているセンサー技術の応用法が紹介された。すべての、あらゆる状況をセンシングし、Context-Aware Computingに繋げるというもので、実際のデモンストレーションが2つ披露された。加速度センサー等を用いた人間の行動のセンシングのデモで、ひとつは、足にセンサーを装着し、歩行の速度など足の動きを細かく分析することで、高齢者の歩行時転倒の兆候などをリアルタイム予測できるシステム。もうひとつは、TVのリモコンにセンサーを仕込み、手の動き、操作の仕方などから利用者を特定し、これまでに入力された同利用者の履歴情報を基に、リモコン自身が利用者の好みのTV番組にチャンネルを合わせてくれるなど、最適なTVコンテンツを判断して提案してくれるというシステムだ。

足に小型の加速度センサーを装着し、歩行の速度など足の動きを細かく分析

例えば高齢者の歩行時転倒の兆候などをリアルタイム予測できる

こちらはTVリモコンにセンサーを仕込んだ例

動きの情報を分析して、利用者が誰なのかを特定し、その利用者にニーズがある判断したTVコンテンツを提案する

Rattner氏の講演では最後に、さらに進んだContext-Awareについても話が及んだ。「2020年のIDFで実用化されているかもしれない」と切り出し、センシングの究極の例として、人間の脳をセンシングし、人間の脳が、1つの情報からどういったことを考えるのかなど、人間の思考を理解できるコンピュータの研究を紹介した。これは、カーネギー・メロン大学やピッツバーグ大学との共同プロジェクトで実現を目指しているものだそうだ。将来のコンピュータは人間の良き友人となれるかどうか……Rattner氏は最後に、「最も重要であることは、人に愛されるようなデバイスを創ること。人々のよりすばらしい生活を実現するための製品を目指すことだ」と、講演を締めくくった。

こんなビデオも流された。女性が誰かに対して怒っている。「どうして何も言ってくれないの! いつも黙ってばかり! 貴方は私のことなら何でも知っているのに! 交友関係も、スケジュールも、昨日どこにいたのか、今日何をするのか、私のことなら誰よりも、何もかも知っているのに! それなのに、あなたは私のことをまるで理解してくれないじゃない!」

痴話喧嘩なのかと思ったら、女性はコンピュータ・デバイスに対して怒っていた。コンピュータが人間を理解できれば、今よりももっと良い、人とコンピュータとの関係が実現するかもしれない