2015年頃から急速に注目され始めたAI(Artificial Intelligence)。AIと一口に言っても実は数十年の歴史があり、その中に分類されるテクノロジーは、音声認識、自然言語処理、予測分析、機械学習、深層学習まで多岐にわたる。そこで本稿では、関連するあらゆるテクノロジーを包含する総称としてAIを扱い、マーケターが業務にどのように役立てることができるかを考えてみたい。
前編で見た通り、マーケティングだけに着目しても、AI(Artificial Intelligence)はさまざまな領域に浸透し始めている。2017年は、マーケティングテクノロジーを提供する大手ベンダーがこぞってAIに関するソリューションを提供し、本格的にAIがマーケティング担当者を支援することを打ち出すようになるだろう。
後編では、AIがマーケターの日常業務をどのように支援するかについて、アナリティクスと音声アシスタントの2つの視点から詳しく見ていこう。
AI活用に不可欠な要素:ビッグデータとアナリティクス
ビジネスの場面で人間を支援するAIが実用段階に入った背景には、クラウドコンピューティングとビッグデータ解析という2つのテクノロジーの貢献がある。
AIが学習するために不可欠なものがデータである。構造化データだけでなく、非構造化データも含めた大量のデータを高速で解析できる環境が安価に提供されるようになったことは、AIにとって学習するための材料が増えたことを意味する。
ただし、大量のデータを保有していても、マーケターが意思決定に活用できなければ宝の持ち腐れとなってしまう。データの中でも、非構造化データを含むビッグデータを詳しく解析し、予測モデルを構築するというより良い意思決定のための一連のプロセスは、データサイエンティストの仕事と認識されるようになってきた。
日本では2011年頃より注目を浴び始めたデータサイエンティストであるが、国内ではデータサイエンティストのスキルとして必須の統計学やコンピューターサイエンスを大学で専攻することが難しいためか、人材の採用と育成に悩む企業が多い。
また、マーケティング部門のような業務部門が意思決定に役立てるためのインサイトを得ようとすると、データを準備し、アナリティクスツールを利用して解析し、結果を解釈して初めて得られる。
おそらく、このプロセスのすべてを実行できる担当者はごく少ない。多くの場合、結果の解釈自体は業務部門の方がノウハウを持っているが、解析結果を出すための作業をIT部門や外部のベンダーなどに依頼する必要があり、時間がかかりすぎると考える企業が多いだろう。
こうした悩みに応えるべく、AI(予測分析や機械学習)はこれまで時間のかかっていた人手の部分の省力化に貢献することが期待されている。また、複雑なデータ処理や解析のしくみはマーケティング部門などの担当者からは見えなくなるため、従来通りアプリケーションを利用するだけで簡単にインサイトにアクセスできるようになるだろう。
ただし、これまでにどれだけこまめにデータを蓄積してきたかが、AIの学習の質に影響する。また、顧客に関するデータの品質に留意しないと、AIが提示するインサイトの質に問題が生じることも理解しておく必要がある。
音声アシスタントのビジネスでの活用の可能性
前編でAIがマーケティングで利用されている場面でも説明した通り、音声認識や文字認識のテクノロジーは、アプリケーションのユーザーインタフェースを大きく変える可能性がある。
ベンチャーキャピタルであるKPCBのMary Meeker氏は、2016年6月1日に公開したレポート「Internet Trends Report 2016」において、音声が最も効率的なコンピューターへの入力形式になると予測した。その根拠として、「Fast:入力が早く」「Easy:簡単で」「Personalized + Context-Driven / Keyboard Free:状況に応じてパーソナライズされており/キーボード不要」を挙げている。
Meeker氏によれば、周期的に新しいユーザーインターフェースが登場しているが、これから最も注目するべきものは「ボイス:音声」だと言う(図1)。
実際、キーボードをタイプして文字を入力するよりも、AppleのSiri、Google Now、Microsoft Cortanaのような音声アシスタントを起動して話しかけるほうが早く、簡単だ。消費者がスマートフォンに話しかけて、「最寄りのカフェの場所」「明日の天気」を知ることは身近なことになりつつある。
そうなると、企業の営業担当者が社内システムから「顧客A社の2016年度の売上金額」「今月のチームの売上見通し」を探すことも同じようにできるはずだ。しかも「2016年度のA社の売上金額累計はどのぐらいか」のように完全な文章で話しかけなくても、「2016年度」「A社」「売上金額累計」と複数の単語を話せばよい。
ユーザーインタフェースがテキストではなく音声である点、検索対象が社内の情報システムである点が違うだけで、検索エンジンに複数の単語を入力するやり方と変わらない。さらに、コンピュータがグラフィカルなレポートを表示してくれれば、部下やアシスタントに頼んで、データを集めて資料にまとめてもらわなくてもよくなる。
問題は、日本語でどれだけ精度の高い結果が得られるかだ。文字の場合も、音声の場合も読んで/聞いて、理解する自然言語処理テクノロジーがカギとなる。
図2が示すように、音声アシスタントの主要用途はアプリケーションの改善であるが、外資系ソフトウェアベンダーがリードするマーケティング関連のソフトウェアでは、日本語対応は英語対応の後になってしまうことが予想される。残念だが、日本のマーケターが活用するには少しの時間差を我慢する必要もあるだろう。