カリフォルニア州サンノゼにあるAdobe本社。Adobeといえばフォトショップなどで有名だが、その基幹技術の開発は、この地で行われている。というのも、本社には「Adobe Research」があるからだ。現在、AIやイマーシブなど、バズワードであり、確実に今後5年、10年を形作る技術の開発を行っている。同組織に所属する日本人、技術アーティストでコンセプトデザイナーの伊藤 大地氏に技術開発の最先端を聞くことが出来たのでお伝えしたい。
Tech Transferが実現する未来
Adobe Researchが目指すことのひとつは、「Tech Transfer」だと伊藤氏。AIやAR、VRに関連した特許、技術はこれまでもAdobeとして数多く保有しているが、「さまざまな技術カンファレンスに参加して技術動向を見ながらコンセプトを固め、どうAdobe製品に応用していくのか。それを固めていくことが大切な役割」だという。
こうしたバズワードを用いることは業界のトレンドであり、もはや聞き飽きたという読者も少なくないだろう。ただ、Adobeというテクノロジー界の大企業の技術部門が真正面から取り組んでいる事実は、重要な意味を持つ。AIはともかく、ARやVRは一部の端末でしか再現できないため、「そもそも文化として定着するのか?」と疑う人も少なくないだろう。
だが、これらの製品に対してAppleやGoogle、Microsoftなどのアメリカ勢、SamsungやSonyといったメーカー勢も取り組んでいる。何より、多くの人が織り成す文化を形成する「エンターテイメント」の領域において、フォトショップなどの製品で絶大な影響を持つAdobe製品がARやVRに取り組むことで、エンタメのクリエイティブを作る時間、お金の両方のコストが劇的に下がることになる。
現時点では、確かにARやVRは一歩先の未来だ。だが、ハードウェアの面でインフラが整えば、コンテンツは数年先というそう遠くない未来に、Adobeが製造しやすい手段を整える。もちろん、研究開発部門がARやVRに取り組んでいるというだけで、実際に製品に技術が適用されるのかわからない。だが、確実に技術開発している事実は、見逃してはならないだろう。
特に、AIについては、すでに日本の「先生」をもじった「Adobe SENSEI」として機能をリリースしている。今後もAIをすべてSENSEIとして展開するのかはわからないものの、先生のようにユーザーを自然とクリエイティブ作業に集中できるよう導くという機能開発をやめるとは考えにくい。AIに至っては「未来」ではなく、「現実」なのだ。
スニークプレビューで新技術を見せる意味
Adobeは、かねてよりクリエイター向けイベント「Adobe MAX」を開催しているが、伊藤氏は日本向けに「スニークプレビュー」と呼ばれる、リサーチ部門で開発した技術の"チラ見せ"を行ってきた。
なぜ研究開発部門が、技術をチラ見せするのか。もちろん、AdobeやGoogleなどのテクノロジー企業が最先端の技術開発を行っていることに疑う余地はない。だが、世界は多様で、さまざまなプレイヤー、業態、業界がある。テクノロジーはあくまでユーザーに企業が届けたい価値の柱の一つであり、価値そのものではない。
もちろん、技術が占める割合は大きくなっているものの、例えば外食産業であれば、その価値は「よりよい飲食物を、その企業が考える最大価値で、低コストに提供する」というものだろう。技術は低コスト化や、利便性などに寄与するものであって、飲食物のアイデアなどがコアだ。
その応用するための技術は、そうした企業主体が存在することで初めて意味あるものになる。だからこそ、将来製品に応用していく技術を"チラ見せ"することで、その技術が本質的に求められているのか、改良する必要があるのか、「ユーザーが、開発者が考える『いいね』を見る事が出来て、それにユーザーがどれくらい『いいね』と思ってくれるのか見られるのがスニークプレビューなんです」(伊藤氏)。これまで、多くの機能がプレビューで見せられ、実際に機能化されているものの、細かい部分では「出ていない技術もある」(伊藤氏)という。
今回のインタビューで伊藤氏、そしてAdobe ResearchのPrincipal ScientistであるVishy Swaminathan氏に解説してもらったのは、昨年末のAdobe MAXと、今年春の Adobe Summitにおけるスニークプレビューでもプレゼンした技術だ。今回見せてもらったものの多くは、ディープラーニング技術を用いたもので、AIの進化をまざまざと見せつけられた。
例えば、「Video Ad AI」は映像解析によってメタタグを自動付加するもので、名前の通り急伸する動画配信プラットフォーム向けの動画広告に応用される。
これまでは広告担当者が動画をすべて見てタグデータを考え、割り当てていたものが、その作業を簡素化出来る。もちろん、これはAdobe SENSEIの画像データへのメタタグ割当と同じ機能と言えるが、Video Ad AIはこれにとどまらない。
例えば、YouTubeではある程度の"じっくり視聴"が許容されるものの、配信先をFacebookやInstagramに切り替えれば、インフィード広告で一瞬のブランディングが肝になる。そうした配信先の違いを読み、最適な動画トリミング、さらに言えばその動画再生時間の短縮も、切り出しではなく、「人が感動するポイント」をピックアップして再構成してくれるようになる。このアウトプットしたデータは、完成品としてだけでなく、Adobe製品の動画編集専用のファイル形式で出力されるため、再編集も可能になる。
「ディープラーニングにおけるニューラルネットワークの再現のように、脳の働き方を再現したものだ。一つのオリジナルビデオを見て(読み込ませて)、人が思い返す時に印象深いシーンだけ思い浮かべるように、印象強いタグの部分などをピックアップする。その作業を、1000件を超える動画で学習させたことで、このような機能を実現できた」(Swaminathan氏)