NTTコムウェアは8月24日、NTTグループが提唱するIOWN(Innovative Optical and Wireless Network)構想のテストベッド環境での取り組みを紹介するメディア向け発表会を開いた。
長年、NTTグループが提供する通信ネットワークのオペレーションを担ってきたNTTコムウェアは、同グループ内におけるIOWN関連プロジェクトにおいてネットワークの制御・監視などに携わっている。
2020年からはIOWNのテストベッド環境を自社オフィスなどに構築し、IOWN構想の実現に向けた技術検証やユースケースの検討などにも取り組んでいる。今回の発表会では、IOWNの構成要素である「APN(All-Photonics Network)」を利用したユースケースとともに、「ロボットとデジタルツインを組み合わせたCPS(Cyber Physical System)モデル」のデモが公開された。
オフィスの高精細なVR化やバーチャル卓球でAPNの検証スタート
IOWNテストベッドでは、新技術に関心のある同社の有志メンバーで構成されるチームが中心となって、2021年からユースケースの検討が開始されている。
NTTコムウェア ネットワーククラウド事業本部 IOWN推進部 技術戦略部門 担当課長の都筑佳紀氏は、「IOWNの特徴として大容量・低遅延が挙げられる。それらを有するネットワークを利用することで、どのようなことが実現可能なのか、未来の夢を語り、アイデアを出し合って、APN上で動作するアプリケーションを実際に作り上げてきた」とこれまでの取り組みを振り返った。
なお、テストベッドで使用しているAPNは、同社のオフィスがある品川と五反田のビル間にダークファイバ―とAPN対応のネットワーク機器を用いて構築されている。
APNの特性を生かすテストベッドでは、通信容量の大きいVR(Virtual Reality)がテーマとして選考された。そして、地理的に離れている人同士がVRゴーグルを通じて仮想空間上で会議を行えるアプリケーションの開発から検証をスタートした。
都筑氏は、「当初は市販のソフトウェアをベースに会議を行い、コミュニケーションへの影響度合いを測った。その後、APNの特性を生かして発展的なことができないかと考え、現在はより高精細なVRコミュニケーションの検証を進めている。例えば、レーザースキャナによるスキャンと点群データを用いてオフィスエリアを高精細にVR化し、その中で社員同士がVRゴーグル越しに、VR空間を移動したり、コミュニケーションをとったりしている」と明かした。
都筑氏によれば、一般的にVRアプリケーションを動かすためには、VRを利用する環境にGPUを搭載したコンピュータを用意し、USBケーブルでVRゴーグルと繋げる必要があるという。だが、APNテストベッドでは、離れた場所にあるGPU搭載コンピュータでVRコンテンツの処理を集約し、APNを介して立体映像のデータをVRゴーグルで受け取っている。
発表会では、APNを利用したテストベッドのデモとして、「Interop Tokyo 2023」のNTT・IOWNブースで展示されていたXR卓球(XR技術を利用したバーチャル卓球)を体験することができた。
今回のデモは遠隔地との卓球でなく、発表会会場(品川ビル)にいるNTTコムウェアの社員と、VRゴーグルに表示された卓球台とラケットを使ったバーチャル卓球を行うといったものだったものの、VRコンテンツの処理は五反田ビルにあるGPU搭載コンピュータで行われ、APNを介して卓球をしている2人のVRゴーグルに映像が映し出された。
会場と五反田ビル間のダークファイバーは30キロメートルにわたって引き回されており、通信も長距離に及んだにも関わらず、遅延が発生することなく卓球のラリーは続いた。また、五反田ビルにあるGPU搭載コンピュータで、現実の物理法則に基づいた動作をVRコンテンツに適用させる物理演算処理も行っているため、現実の卓球と比べても違和感のない軌道でVRのピンポン玉が行き交っていた。
デジタルツインで現実世界を把握・制御する「CPSモデル」
同社は平行して、ロボットとデジタルツインを組み合わせることで仮想空間と現実空間を連携させる「CPSモデル」の確立に向けて、IOWNの構成要素の1つである「DTC(Digital Twin Computing)」とAPNを利用したロボット制御の検証も行っている。
同モデルでは、デジタルツインに現実世界の情報を反映し、デジタルツイン上で行ったシミュレーションの結果に基づいてロボットを動かすことで、現場での作業効率化や省人化、自動化などの実現を目指そうとしている。
「例えば、人が温度測定を継続して行うのが難しい場所にロボットやセンサを配置し、それらで測定したデータを基に、デジタルツイン上で現実世界の変化を予測して、空調を制御するといった使い方も想定している」(都筑氏)
発表会では、CPSモデルのデモとして、APNを利用したロボットの遠隔リアルタイム制御が披露された。デモでは、五反田ビルのサーバルームにセッティングした巡回ロボットに対して指定ポイントへの移動、映像撮影のための動作などについて、サーバルームのデジタルツインから指示を出した。
指定のサーバラックまで移動するプログラムが実行されると、定位置にいるロボットが動き出した。すると、同時にデジタルツイン上のバーチャルロボットも、現実のロボットと同じルートで動きを進めていった。
ロボットのアームと本体には、それぞれカメラが備え付けられており、指示されたラックの前に到着すると、2つのカメラでサーバの背面を映し出した。アームのカメラではサーバの起動状態を示すランプと、異常などを示すアラームランプを撮影した映像はストリーム配信され、デジタルツイン上の別ウインドウに映し出された。
映像が映し出された状態で、デジタルツイン上の「ランプ点検」機能をオンにすると、アームカメラの撮影映像に、ランプのオン・オフ状態を画像判定した結果が重ねて表示された。
Wi-FiやBeyond5Gによる「末端」通信の改善が課題に
ロボットの遠隔操作では通信の遅延が発生すると、現場の状況とカメラ映像を見て行ったロボットへの指示がズレてしまう。だが、ネットワークにAPNを利用することで映像配信の遅延が最小化でされ、リアルタイムな操作が可能になるという。
都筑氏は、「今後は高精細な映像や、360度カメラを用いた立体映像の伝送実験も行いたいと考えている。しかし、現在はロボットの制御にWi-Fiを利用しているため、遠隔地における末端の通信の弱さが課題となる。この点については、Wi-Fi7の商用展開やBeyond 5Gなどの新たな通信規格の登場などにより解消されていくだろう」と予想した。
今後、NTTコムウェアでは、IOWNの構成要素の1つである「CF(Cognitive Foundation)」を組み合わせることで、CPSモデルを発展させていく計画だ。CFは、ICTリソースを全体最適に調和させるための技術分野となる。
APNによるリアルタイムな通信とDTCによる高精度なシミュレーション、そして、CFが組み合わせることで、例えば、システムでのトラブル発生時の対応をAIに判断させて、ネットワークやサーバなどの構成を動的に変更するといったシステム運用が可能になるという。
「システムが利用者の意図をくみ取り自動制御を実施する、インテンドベースのオーケストレーションが目指すところで、IOWNを実用化することでシステムアーキテクチャと人の働き方も大きく変わるだろう」と都筑氏は語った。