Googleは6月1日に、「クリエイティビティと機械学習」というテーマでメディア向けの勉強会を開催し、同社の研究内容について発表した。
勉強会では、まず「Sketch RNN」と呼ばれるツールを使った実験を紹介した。
Google シニア リサーチ サイエンティストのデイヴィッドハー氏は「これまでクリエイティブに関する生成モデルでは、ピクセルイメージを64次元の数字に圧縮し、イメージを分析することが多かった。我々は、線の描き順を64次元の数字に置き換え、インプットとアウトプットを補完する研究をしている」と研究の内容を説明した。
同研究は、ペンの置かれている位置などの情報からAIが描いているものを理解し、描き方を学習するというもの。人間の描いたイラストが何かを覚えて、AI自らそのイラストを描くことができる。
なお、機械学習には教育用のデータが必要だが、同社では、20秒以内に出題されたテーマについてスケッチするというモバイルアプリを公開し、そこから得られたデータを活用したという。
研究の結果、AIは描かれたものの概念を理解し、表現することができるようになった。たとえば、目が3つある猫を描いたり、足が8本ある豚を描いたりしても、AIは正しいイラストを出力してくれるようになったという。また、途中でイラストの描画を止めた場合でも、完成を予測してAIが自動で補完することにも成功した。
2つめは「World Models」と呼ばれる研究だ。「Vision Model」「Memory RNN」「Controller」という3つのモデルから構成される。
ベクターイラストの研究とは異なり、モデリングの対象がビデオゲームである。ピクセルイメージを取得することで2つのゲームを学習し、モンスターの攻撃をいかに避けられるか挑戦するゲーム「Doom」と、コースから外れずにいかに速くゴールできるか競うカーレーシング「Box2D」において、訓練データからAIが次の予測を導き出すことができたという。
また、Memory RNNが予測した結果を、トレーニングデータとして活用することで、少ないデータでのトレーニングが可能になった。
デイヴィッドハー氏は「この技術が確立されれば、ゲーム開発におけるデバッグなどの作業にAIを活用できるようになるだろう」と展望を述べた。