2025年6月3日から5日にかけて、米フロリダ州オーランドにて開催された「Unreal Fest 2025」。初日に行われた基調講演「State of Unreal 2025」の内容は先にご紹介しましたが、その後、会場内ではUnreal Engine 5.6の様々な機能を紹介するブースが展開されていました。筆者もそのうちいくつかを体験してきたので、その内容をレポートします。
LLM APIのデモは日本語にも対応
会場には、「State of Unreal 2025」で紹介された各機能を体験できるブースだけでなく、Unreal Editor for Fortnite(UFEN)を使ったゲームの紹介、Unreal Engineを使用したカーテクノロジーやスポンサー企業のブース展示もありました。
最初に訪れたのは「Unreal Editor」のコーナー。大規模言語モデル(LLM)APIを搭載したデモ機です。
「State of Unreal 2025」でも映像で紹介されていたデモですが、宇宙船らしき閉鎖空間の中で、AIが様々な指示を出してきます。AIはこちらの反応を見て、対応を変えてきます。最初に設定された目標に対して、プレイヤーを導こうとしていきますが、決して命令せず、対話相手を尊重し、会話の積み重ねによって、会話の内容も変化していきます。AIは画面真ん中の通路というか橋というか、その先にあるボタンを押して貰おうとしているようですが、画面内のモニターには「Do Not Press Button」と書いてあり、本当に押して良いか判断しかねます。そこで、AIに対して、嘘をついていないか、表示にはボタンを押すなと書いてあるなど、対話し、相手との会話を続けていきます。
実際には、ゲームではなくあくまでもデモンストレーションなので、ボタンを押すことに深い意味はなく、会話することにこそが重要なのです。体験してみて感じたのは思った以上にスムーズに会話が進むこと。また、私は日本語しか使えないので、当然、日本語で話しかけましたが、そこもすぐに応答し、日本語で返事をしてくれていました。
演出によっては、AIによる神の声状態なのか、別空間から人間が指示してくるのかが判断しにくくなるかも知れません。ロールプレイングゲームでは、「我が村へようこそ!」というセリフを繰り返すだけのNPCだったのが、プレイヤーは選択肢ではない自由な言葉で話しかけ、NPCはそれに対応した言葉で返答するようになるというわけです。