「GOOG-411」、その名前を久しぶりに聞いた。ご存じない方も多いと思うが、GOOG-411は、Googleが米国で提供していた電話向けの電話番号案内サービスである。ユニークなサービスだったが、わずか3年で消えてしまい、多くの人が「GOOG 411は何だったのか」という疑問を抱いた。そのナゾが6年の時間を経て解けた。正体は意外なものであり、でも今なら納得できるものだった。

スマートフォン世代には分からないと思うので、まず電話番号案内サービスを説明すると、電話をかけてオペレーターに電話番号を調べてもらうサービスである。外出時、予約を入れたい店があっても、今のようにすぐにスマートフォンで電話番号を調べられない。そこで番号案内サービスを利用する。米国で番号案内は「411」でアクセスでき、スマートフォンが登場するまでよく利用されていて、10年前の米国では年間26億件、70億ドルを超える市場だった。

そこでGoogleが2007年に開始したのがGOOG-411だ。1-800-GOOG-411に電話をすると、人間のオペレーターではなくロボットが応対し、場所(郵便番号でも可)とビジネス名や業種などを言うと電話番号を調べてくれる。SMSで情報を受けたり、直接電話をつないでもらうことも可能、無料で利用できた。

フィーチャーフォンで利用できる検索サービス「GOOG-411」

GOOG-411は人々と情報を結びつけるソリューションであったものの、短命で終わった。2007年といえば、AppleがiPhoneを発表した年であり、そこから一気にモバイルWebが普及したからだ。そんなタイミングで「Webの進化の加速」を推進するGoogleが古い電話向けにGOOG-411を始めた……それがGOOG-411のナゾだった。

その疑問について、Googleで自然言語認識のプロジェクトを率いるFernando Pereira氏がSteven Levy氏の取材で答えている。GoogleがGOOG-411を提供した理由は、良く言われる電話番号案内サービス市場に食い込むためではなかった。また、Googleの検索サービスをアナログの世界に広げるためでもなかった。当時Pereira氏は、人々が話す言葉をGoogleが幅広く理解できるスピーチモデルを構築するために、豊富な音素(phoneme)のデータを必要としていた。そこで色んな人のスピーチサンプルを収集するために無料サービスを用意した。それがGOOG-411だった。わずか3年で終了したのは、音声入力などを実現するのに十分なサンプルを収集できたためで、GOOG-411の成果は、その後の音声検索やAIプロジェクトへとつながっていく。

GOOG-411に助けられていた人も少なくなかったはずなのに、データが集まったからサービス打ち切りというのは酷い話だが、Googleらしいといえば、Googleらしい。

Google Assistantが会話から学習する2年間

なぜ、Pereira氏がLevy氏の取材でGOOG-411を持ち出したのかというと、当時の自然言語認識と同じような状況に今「Google Assistant」が置かれているからだ。

Googleは検索サービスを通じて収集したデータの蓄積によって、デジタルアシスタントの競争でリードしていると言われている。しかし、Google Assistantを鍛えるのに必要なサンプルはそれほど多く集まってはいないという。たとえば、Google検索で「Book me a table at CasCal for 7 pm for two」というようにレストランの予約を頼むことは可能だ。しかし、レストラン予約はGoogle検索からアシスタントを頼める数少ないケースで、実際にGoogle検索ユーザーが何かを頼むような言葉を検索ボックスに入力することは少ない。

Google Assistantが必要としているのは会話のサンプルだ。

「いつものところに予約しておいて」

「3rdストリートのJoe’s Dinerでいいですか?」

「いやいや、Joe’s Dinerは好きじゃない、もう半年はいっていないはずだ。Suzy’s Dinerにしてくれ」。

こうした会話がGoogle Assistantで成立するかというと、今のGoogle Assistantはすぐに「Sorry、I can’t help with that」と白旗を揚げる。だが、手助けできなかったことが前進になる。そうしたつまずきを積み重ねて、話し言葉の癖を知り、話し言葉の裏にある意味やコンテキストまで理解して、やがてスムースなアシスタントを提供できるようになる。それを実現するための会話のサンプルが圧倒的に足りていない。そんなGoogle Assistantの最大の障害がGoogle検索だ。Google Searchは19年の時間を積み重ねて人々の生活に浸透しきっている。Googleがアシスタントの可能性を説いても、Google AssistantはGoogle Searchが始まったばかりの頃に等しく、使っててもできないことが多いし、使ってみたユーザーに不便を強いることも多い。ユーザーは便利で快適なGoogle検索にとどまり、アシスタントを試さず、会話のサンプルが集まらないという悪循環である。

人の言葉をマスターすることから優れたアシスタントの提供は始まる

Pereira氏によると、2016年~2017年はGoogle Assistantoにとって「Transition (移行)」になる。ただ教えられるだけのシステムから、自ら学習するシステムへの移行である。

Googleは10月に行った発表イベントで、Google Assistantを統合したスマートフォン「Pixel」とスマートスピーカー「Google Home」を発表した。筆者は、2週間近く前からPixel XLを使っている。完成度の高いスマートフォンではあるが、Google Assistant統合以外のユニークな特徴はない。Google製品の熱心なユーザーならともかく、iPhoneユーザーが乗り換えるかというと大きな疑問符が付く。

ホームボタンを長押しして、簡単にGoogle Assistantを呼び出せる「Pixel」

でも、それでもPixelは、その役割を十分に果たすのではないだろうか。いち早く、価格の高いPixel端末を購入する熱心なGoogle製品ユーザーなら多少の不便を厭わず、Google Assistantに挑戦してくれるだろう。そうしたユーザーとGoogleの会話からGoogle Assistantは学習し成長していく。Google Homeに至っては、Google Assistantと会話する以外に操作する術がない。

音声アシスタントスピーカー「Google Home」

PixelはGoogleがハードウエアまで手がけた初の”Made by Google”スマートフォンだ。Googleのハードウエア進出は、Appleと同じ垂直統合でiPhoneに対抗するためと見られているが、私にはGOOG-411を踏襲したものに見える。もしかすると、Pixelはさっぱり売れないまま短命で終わってしまうかもしれない。それでもPixelの成果はGoogle Assistantに残される。たとえ販売台数が伸びなかったとしても、AppleやMicrosoftにとってPixelは脅威になる。