衣装がアバターの体型にジャストフィット。動き・表情の反映もスムーズに

次に体験したのは「MetaHuman」のコーナーです。MetaHumanはゲーム内アバター作成ツール。以前は別アプリとして早期アクセス版として利用できていましたが、Unreal Engine 5.6から完全統合され、Unreal Engine内で使用ができます。

まずはアバターの制作について伺ってきました。顔や身体の様々なパーツから選んで人物を作成するのはこれまでのアバター作成と変わりませんが、パーツの多さとカスタマイズ性は群を抜いているそうです。さらに、各パーツの大きさや長さなどは、数値を入れることで微調整でき、より細かい設定ができるようになっていました。ただ、同じ数値だとしても、筋肉質なのか、痩せ型なのか、肥満なのか、体型によって見た目は大きく変わっていくので、今後は数値だけでなく、どういった見た目に近くなるのかの設定も増やしていくとのこと。

さらに、これまでのアバターとは違うのは、アウトフィット(アバターが装着する服や靴、装飾品)がより体型にフィットするようになったことです。現実世界でも、同じ服を着ても体型によって印象が変わるように、アバターのアウトフィットもしっかりと体型に合わせた見た目になり、より自然になっていきます。作成したアバター自体、もしくはパーツやアウトフィットは、販売することもできます。人気のデザインの服を作成できれば、リアルでアパレルを販売するよりも稼げる可能性はあります。有名人にそっくりなアバターを作成して販売する可能性も捨てきれないので、服のデザインを含め、著作権や肖像権などのチェック機能も同時に必要となりそうです。

  • MetaHumanの担当者

    アバターの作成について担当者が話をしてくれました

次に作成したアバターを動かしていきます。これまでの多くのゲームでは、モーションキャプチャーを使い、体中に装着したセンサーによって人の動きをキャラクターに反映してきました。MetaHumanでは、Unreal Engineとは別のアプリを使用しますが、8つのカメラを周囲に配置するだけで、人間の動きをトレースしてキャラクターに反映できます。モーションキャプチャーだと、センサーを装着していない部分の動きは反映されませんが、今回のデモンストレーションでは、細かすぎてセンサーを着けることがない指一本一本までキチンと反映していました。これが、Unreal Engine 5.6を使用することで、リアルタイムで表示することが可能となっています。

  • アバターを動かすデモ

    カメラを前にしたふたりの動きが、後ろに映し出されている青いキャラクターと毛むくじゃらのキャラクターに反映されています。周りには8台のカメラしかなく、いわゆるモーションキャプチャーのセンサーは装着していません

また、身体全体ではなく、顔の表情を反映することもできました。これも別のアプリの機能となりますが、顔の表情を読み取るのはカメラひとつ。専用のカメラでなく、スマートフォンのカメラを利用することもできます。いわゆるVtuberもフェイストラッキングアプリを使用して中の人(中の人はいないんですけど……)の表情をアバターに反映させており、基本的にはそれと同じようなものですが、やはり表情の細かさと微細な動きにも反応するところはレベルが違うという感じがあります。

  • アバターの表情の反映のデモ1

    筆者の表情をアバターに反映しています。筆者の前にあるスマホのカメラで捉えた表情をリアルタイムで反映しています

  • アバターの表情のデモ2

    別角度からはこんな感じ。この筆者の表情がアバターに反映されているのがわかります

今では映画の多く、特にSFものでは、役者と背景を合成することが当たり前ですが、役者のアバターを作ってオープンワールドのような舞台に入り込めば、合成すらいらなくなる時代が来るのかも知れません。日本では、より表情豊かなVtuberが増えてくるような気がします。将来、MRゴーグルを常備装着する時代が訪れれば、すべての見た目はアバターになるのではないでしょうか。