エイベックスが昨今事業化に向けて推進しているという新サービス「SARF」。“音声AR”なる聞きなれないもので、位置情報と音声コンテンツを紐付けた再生をスマートフォンアプリで行えるそう。ぱっと聞いた感じでは、美術館の音声ガイダンスみたいなものが位置情報によって自動化されただけかなという印象でしたが、メディア向けの説明会で実際に体験してみたところ“似て非なるもの”だと言えそうです。

忙しい方向けにまとめておくと、殺風景な会議室でもたしかに没入感が存在していて驚きました。これが風光明媚な観光地であったり、推しのコンテンツで体験できるとあればかなり強力かもしれません。もっと周知されてよく使われるプラットフォームへと成長してほしいと感じました。

  • “百聞は一見に如かず”すぎる、音声AR「SARF」の没入感がなかなかのものだった

要するに「位置情報×音声コンテンツ」

SARF自体は上述した通り、「位置情報×音声コンテンツ」を軸にしたかなりシンプルなソリューションです。利用者はスマートフォンアプリをインストールしてスポットを巡り、スポットに応じた音声を聴取できます。場所に応じた音声を聴くことがで没入感を高める───というのが売り文句です。

位置情報の検出にはスマートフォンが内蔵するGPSのほか、Bluetoothを用いた設置型ビーコンも利用できるそう。これによって測距が行いにくい地下施設や屋内でもサービスが展開でき、10月11日からはOsaka Metroの8駅にスポットを設置予定。LDH LIVE-EXPO 2024とコラボしたもので、21名のLDHアーティストの音声ARコンテンツを楽しめるほか、スタンプラリー形式で大阪の街を周遊できるようになっています。

エイベックスが得意とする音楽イベントでの活用のほか、各種IPの活用にも向くそう。すでに交通新聞社が発行する雑誌「旅の手帖」とコラボした『隠された徳川埋蔵金を探せ!!』施策に加え、KADOKAWAが運営するWeb小説サイト「カクヨム」との協業で『短編こわ~い話コンテスト』施策が実施済み。自治体の観光ガイドや東京都の防災イベントでも利用されており、各種イベントへの活用が進んでいると話します。

この展開にはかんたんな運用も一役買っているそうで、ブラウザから操作できるWebベースのCMS(コンテンツマネジメントシステム)である「SARF Studio」が最近リリースされたとのこと。どこでどのコンテンツを再生するのか、という設定がわかりやすいユーザーインタフェースで提供されており、いちいちベンダーや技術者の手を借りなくても手軽に施策を作りこめるとのこと。

  • 管理画面は広報用資料から

長々と説明してきましたが、そうは言っても「音声が場所に応じて勝手に流れるだけじゃないのか」と思っていた本サービス。いざ体験してみると、この“勝手に”という部分がなかなかインタラクティブであることに気づきました。アプリを起動したままビーコンに近づくと音声が流れるのですが、この再生が自分の移動をトリガーにしてる点がかなり目新しいです。「自分が移動する→スマートフォンが移動を検知する→音声が再生される→自分が移動したことが、自分の中で再認識される」という流れが、思ったより没入感に寄与しています。

  • 体験会の様子。広い会議室の片隅にビーコンが設置されており、参加者が近寄っていきます

  • 椅子に取り付けられていたビーコン。Bluetoothを使っているのか、アプリ起動時に権限が要求されました

  • GPSでは検出しきれない屋内でも、位置情報を活用したサービスが提供できるというわけ

  • サンプルのUI。おそらく本番環境では上に任意の画像を挿入でき、ディスクリプションのテキストももっと充実させることができます

デモは殺風景な会議室で行われましたが、エイベックスが所在する西麻布周辺でもサンプルを体験できました。外だと余計にこの移動を再認識するプロセスがリアリティを帯び、なんでもない路上でひとしきり体験を強めることができました。

これがもし有名な観光地で場所に応じたガイダンスを聴取できたり、強力なIPとのコラボレーションが行われれば強い印象を得ることができそう。アニメやゲーム等の“聖地巡礼”ユースケースはエイベックス側でも想定されているようでしたが、ぜひ何かの施策で使われているところを体験してみたいと感じました。

懸念点を挙げるとすれば、スマートフォン本体スピーカーを使うとほかの参加者と干渉してしまう恐れがある点でしょうか。これはイヤホンを用いれば解決できますが、今度はグループで参加した際のコミュニケーションが損なわれそう。コンテンツを制作する側にとっては、このあたりの取り回しに手腕が問われそうです。