4月4日~6日の3日間にわたり、最新のAI技術が一堂に会するイベント「第2回AI・人工知能EXPO」が東京ビッグサイトにて開催された。3日間合計で4万人以上が来場した同イベントでは、機械学習や自然言語処理、画像認識、チャットボットなどさまざまな技術・サービスの展示と共に、各種講演や専門セミナーが実施され、盛況を博した。本稿では、米AmazonのAlexa マシンラーニングプラットフォーム バイス・プレジデント ラヴィ・ジェイン氏による講演「AmazonによるAIの民主化」の模様をレポートする。
Alexaが「ドリカム」を理解することの意味
ジェイン氏はAmazon社内において、自動音声認識や自然言語処理、ディープラーニングプラットフォームをはじめとした、音声言語理解の分野に取り組む各種エキスパートで構成されるチームを統括する立場にある。
ジェイン氏は、AIに対して人間が抱く”夢”について「決して新しいものではない」とした上で、SFの世界、さらにはギリシャ神話や日本神話にまでさかのぼり、「人間の知性の機械化」に対する強い想いの歴史を振り返った。
「では現在は何が違うのかと言えば、過去少しの間にWebやモバイルなど新しい世代のコンピューター・テクノロジーが次々と生まれたことが挙げられます。そして、今は音声が次の主要な『破壊的要素』としてコンピューティングに大きな影響を与えようとしているのではないでしょうか。人間はもともと言語能力を備えているので、音声こそが最も自然なインタフェースだと言えます」(ジェイン氏)
こうした発想の下にAmazonが開発したのが、クラウドベースのAI音声認識サービスである「Amazon Alexa」だ。そしてAlexaとつながる最初のデバイスが、同社のAIスピーカー「Amazon Echo」である。
講演のテーマでもある「AIの民主化」に向けたAmazonの取り組みの1つが、AIをローカライズすることにある。例えば、AlexaはEchoに話しかけられた「ドリカム」という略語を日本のアーティスト「DREAMS COME TRUE」のことだと理解し、その楽曲を再生することができる。
ジェイン氏は、「こうしたローカルの知識を活用して、消費者や開発者が使えるようにすることもAIの民主化の1つです」と説明する。
「特に開発者は、言語や音声解析のプロでなくても、自身の専門知識に特化しながらAlexaの追加機能である『スキル』の開発を行うことができます。またクラウドベースであるため、我々は常にAlexaの頭脳を賢くなるよう教育することが可能です」