AIデータセンターの効率化を支援するソリューション

Keysight Technologiesの日本法人であるキーサイト・テクノロジーズは、同社の注力分野の1つである「AI」に向けて、AI活用を加速するための測定ソリューションブランドとなる「Keysight Artificial Intelligence(KAI)」アーキテクチャを発表した。

KAIのコンセプトは、「Emulate anything. Optimize everything.」で、ネットワークの物理レイヤからアプリケーションレイヤまでくまなくエミュレートして最適化を果たすことで、AIデータセンターの開発を支援することを目指すものとなっている。

AIに対する世界的な注目の高まりとともに、AIデータセンターへの投資が加速するが、その一方で現在、データセンターとしての転換点を迎えているとキーサイトのグローバル・マーケティング アジア・パシフィック・マーケティング日本マーケティングマネージャーの岡崎淳起氏は説明する。例えば、現状イーサネットとしては400Gないし800Gが活用されているが、3年以上先になれば、1.6Tないし3.2Tへと技術が進化することが見込まれるほか、メモリもDDR5からDDR6やHBM3以降への移行が見込まれるし、通信の伝送速度も100Gbpsから224/448Gbpsへと移行することなども見込まれている。

  • 岡崎淳起氏

    KAIについての説明を行ったキーサイト・グローバル・マーケティング アジア・パシフィック・マーケティング日本マーケティングマネージャーの岡崎淳起氏

「生成AIが活用されるようになり、膨大なデータ量の処理が必要となり、GPUの処理性能だけではなく、それらをつなげる通信速度の向上も課題になってくる」(岡崎氏)と、AIデータセンター全体での性能向上を考えていく必要がでてきていることを強調。「AIデータセンターのチャレンジとして、CPUやGPUの演算処理性能の向上と、その正確性の担保が挙げられるが、それらの処理性能が上がっても、ネットワークがボトルネックになってしまえば宝の持ち腐れになる。そうした意味でもネットワークのパフォーマンス向上も重要になってくる」(同)とする。

AIデータセンターの性能向上を妨げるネットワークの処理不足

実際に、ある調査によると、AI処理におけるGPUが常に稼働をしているといっても、処理項目別にみると、演算処理の割合は20%ほど、メモリで2%、ほかとの通信をしながら次の演算に向けた処理などを並行して進めているオーバーラップで16%ほどで、残りの62%はほかのGPUとのやり取り(コミュニケーション)で、自分の方は処理待ちといった状態にあるという。また、LLMの学習も常に成功しているわけではなく、ネットワークや演算ミスなどが43%ほど生じており、そのやり直しに伴う処理遅延なども生じることとなっているという。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら