シュナイダーエレクトリックは12月8日、都内でAI・HPCを支える「データセンターの在り方」をテーマに理化学研究所(理研)、アット東京の担当者とパネルディスカッションを開催した。参加者は、理化学研究所 計算科学研究センター運用技術部門施設運転技術ユニット 量子HPC連携プラットフォーム部門量子HPC プラットフォーム運用技術ユニット Al for Scienceプラットフォーム部門AI開発計算環境運用技術ユニット ユニットリーダーの三浦信一氏、アット東京 技術・サービス本部 設備構築部長の錦織雅夫氏、シュナイダーエレクトリック C&SPセグメント アカウントマネージャーの須田拓真氏の3人。
理研の計算科学研究センターは、2018年4月に計算科学研究機構から改称し、HPC(スーパーコンピュータ)「富岳」の運用と高度化、国内における計算科学・計算機科学の進行、次世代HPCの開発を手掛け、三浦氏は前世代の「TSUBAME」や「富岳NEXT」の運用技術などに携わっている。
一方、アット東京はキャリアニュートラルなデータセンター事業者で、東京を拠点に高信頼・高セキュリティのコロケーションサービスを提供。ATBeX(Business eXchange)を通じて、クラウドやIXなど多様なITサービスへの接続を実現し、企業のDXやAI開発を支えるネットワーク基盤を構築している。
昨今、AIサービスの急速な拡大に伴うコンピューティングにおける高密度ワークロードの増加により、データセンターのラックあたりの電力密度は急速に上昇している。そのため、大容量の電力供給とシステムの発熱を冷却する技術がAI対応データセンターの拡張性・安定性・持続可能性の観点から注目されている。
特にAIに関するインフラ技術の基準はいまだ発展途上であり、標準となる基準がなく、仕様が異なることで、設計・構築における複雑さや安全性・効率性を担保するうえでの運用面での課題が指摘されている。
今年11月に米国で開催されたスーパーコンピューティング分野のイベント「SC25」では、高密度化に対応する液冷技術や高密度エネルギー供給技術が主要テーマの1つとなった。以下から対話形式でパネルディスカッションを紹介する。
「SC25」で注目された冷却技術と電源供給
須田氏(以下、敬称略):SC25で印象に残っている製品や技術などは?
三浦氏(同):冷却技術です。これまでもわれわれはスパコンとして2017年にTSUBAME 3.0、2018年に産業技術総合研究所の「ABCI 1.0」、2020年に富岳などでDLC(直接液冷方式)に取り組んでいますが、いかに冷却するかがテーマになっていました。
-

理化学研究所 計算科学研究センター運用技術部門施設運転技術ユニット 量子HPC連携プラットフォーム部門量子HPC プラットフォーム運用技術ユニット Al for Scienceプラットフォーム部門AI開発計算環境運用技術ユニット ユニットリーダーの三浦信一氏
2026年に理研でもNVIDIA Grace Blackwellプラットフォーム「GB200 NVL4」を搭載した量子HPC連携プラットフォーム向けと、AI for Science向けのスパコンがそれぞれ稼働するが、両方ともDLCを採用します。
また、AIやHPCの急速な普及により、NVIDIAが発表した800V直流電力供給アーキテクチャもトピックとして挙がっていました。2026年に稼働するスーパーコンピュータは、あくまでも富岳のテストベッドとして位置付けて、冷却と電源設備の研究に取り組みます。
錦織氏(同):データセンター向けに設計された冷却ソリューション「Cooling Pod」をリアルで見ることができたのは参考になりました。また、三浦さんも指摘した800Vの高電圧直流送電については検証・検討段階でした。
電源供給に加え、直流の高電圧で各サーバに送電することについては各社さまざまな検討を重ねており、まだ定まっていない印象を受けました。国内に導入するにしても、多くの課題があることから、これから解決していかなければと感じています。
2030年に向けたデータセンターの進化と量子コンピュータ
須田:未来のデータセンターはどのように変化していくでしょうか?
錦織:データセンター事業者として先端技術を追う立場でありますが、データセンターで対応するのは少し先の話という印象。ただ、事業者として、どのような要件でも対応できる柔軟性やコスト、納期など課題を解決しながら準備を進めたいと考えています。
三浦:われわれとしてはスパコンのみならず、AIも含めたデータセンター像を検討していますが、すでに2030年に向けて「富岳NEXT」の計画が進行しています。そうした中で、2030年におけるデータセンターのあり方についてイメージは固まっています。
1つ大きなポイントになるのは量子コンピュータ。これに備えた動きをする必要があり、実際に神戸市の拠点に富岳と接続した量子コンピュータ『IBM Quantum System Two』や、埼玉県の拠点にQuantinuumの量子コンピュータ『黎明』が稼働しています。データセンターで稼働させるためには難しい状況もあるが、将来的なデータセンターでは量子コンピュータもサポートしていく必要があると認識しています。
錦織:当社は接続性を重視した事業を展開しており、超高密度のものが大規模に入ってくることは想定していませんが、企業の中では少し落とした形で一部導入したという話は聞いています。
未来の技術に、いかに対応していくかという観点で最先端の情報を収集して、それをどのような形で構築するかということは常に考えています。
須田:TSUBAMEは最初からGPUを搭載するという発想だったそうですね?
三浦:TSUBAMEは世界初のGPU搭載のスパコンであり、NVIDIAとも非常に密に連携していました。2010年代ごろからGPUの導入に際して、電源や冷却が問題になっていくだろうと予測していました。
そのため、双方ともに研究を進めてきており、富岳NEXTに向けて研究は継続していくことが重要です。富岳NEXTではGPUを導入することは発表しており、大きなトレンドとして変わらないと信じたいです。
最新GPU対応とデジタルツイン活用の可能性
須田:データセンターにおける課題、今後のAIインフラの展望に話を移していきたいと思います。まず、最新のGPUの受け入れに伴う課題や対応などはどのようなものがありますか?
錦織:今回のSC25で散見されたものとして「デジタルツイン」がありました。サーバから施設の状態を見える化し、最適な運用ができるようにデジタルツインを活用している事例がありました。
アット東京としても、CFD(気流シミュレーション)やDCIM(データセンターインフラ管理)で可視化していますが、実際に提案活動に活かすなどの活用には至っていません。今後、高密度化していくと、かなり運用がシビアになるため活用する仕組みを作り、最適な提案として特に省エネルギーにも活用できるようなものに取り組みたいですね。
三浦:デジタルツインは大きな関心を集めています。われわれとしてもスーパーコンピュータを運用するうえで、いかに設備を効率的に運用するとともにカーボンニュートラルなエネルギーを活用しているかなどにデジタルツインを積極的に活用していこうと考えています。
また、2030年以降の冷却技術がどのように変化していくのかは検討したいですね。2030年まではDLCで進むと思いますが、その先は熱密度が指数関数的に高くなることから冷却が難しくなると認識しています。そのため、液浸の技術開発の向上が必要になってくると考えています。
一方、800Vの高電圧直流送電への対応について日本における法規制の問題があります。これを世界標準の高い電圧に対応しないと、一般的なデータセンターでの展開は非常に難しいです。そのため法規制も含めた緩和策などが必要でしょう。
須田:最後に一言ずつお願いします。
錦織:技術の進歩が速く、データセンターにおける設計の標準を定めにくくなっています。しかし、当社としては標準化と柔軟な体制整備で省力化を目指すほか、短納期を望まれるお客さまもいるため、標準化を安定的に続けていくことはお客さま、当社どちらにとっても良いことです。
三浦:2030年の富岳NEXTが大きなターゲットになっています。いかに効率よく運用を進め、AIのインフラを提供するだけでなく、AIを活用してシステムを構築・運用できる環境を今後整備していきたいです。その先のシステムに対しても、環境に優しく効率的なシステムを構築できればと考えています。


