Googleは6月1日に、「クリエイティビティと機械学習」というテーマでメディア向けの勉強会を開催し、同社の研究内容について発表した。

勉強会では、まず「Sketch RNN」と呼ばれるツールを使った実験を紹介した。

Google シニア リサーチ サイエンティストのデイヴィッドハー氏は「これまでクリエイティブに関する生成モデルでは、ピクセルイメージを64次元の数字に圧縮し、イメージを分析することが多かった。我々は、線の描き順を64次元の数字に置き換え、インプットとアウトプットを補完する研究をしている」と研究の内容を説明した。

  • Google シニア リサーチ サイエンティストのデイヴィッドハー氏

    Google シニア リサーチ サイエンティストのデイヴィッドハー氏

同研究は、ペンの置かれている位置などの情報からAIが描いているものを理解し、描き方を学習するというもの。人間の描いたイラストが何かを覚えて、AI自らそのイラストを描くことができる。

なお、機械学習には教育用のデータが必要だが、同社では、20秒以内に出題されたテーマについてスケッチするというモバイルアプリを公開し、そこから得られたデータを活用したという。

研究の結果、AIは描かれたものの概念を理解し、表現することができるようになった。たとえば、目が3つある猫を描いたり、足が8本ある豚を描いたりしても、AIは正しいイラストを出力してくれるようになったという。また、途中でイラストの描画を止めた場合でも、完成を予測してAIが自動で補完することにも成功した。

  • 人間の描いた猫と豚(黒い線のイラスト)に対するAIのアウトプット(青い線のイラスト)

    人間の描いた猫と豚(黒い線のイラスト)に対するAIのアウトプット(青い線のイラスト)

2つめは「World Models」と呼ばれる研究だ。「Vision Model」「Memory RNN」「Controller」という3つのモデルから構成される。

ベクターイラストの研究とは異なり、モデリングの対象がビデオゲームである。ピクセルイメージを取得することで2つのゲームを学習し、モンスターの攻撃をいかに避けられるか挑戦するゲーム「Doom」と、コースから外れずにいかに速くゴールできるか競うカーレーシング「Box2D」において、訓練データからAIが次の予測を導き出すことができたという。

  • トレーニングを実施した2つのゲーム

    トレーニングを実施した2つのゲーム

また、Memory RNNが予測した結果を、トレーニングデータとして活用することで、少ないデータでのトレーニングが可能になった。

デイヴィッドハー氏は「この技術が確立されれば、ゲーム開発におけるデバッグなどの作業にAIを活用できるようになるだろう」と展望を述べた。