Infineon Technologiesの日本法人であるインフィニオン テクノロジーズ ジャパンは7月10日、AIデータセンターに向けた高効率な電力供給に関する同社のロードマップと製品ラインナップに関する説明を行った。

近年のAIデータセンターを取り巻く消費電力事情

まず後藤貴志氏(Photo01)より、昨今のデータセンター事情についての概略の説明があった。

  • 後藤貴志氏

    Photo01:インフィニオン テクノロジーズ ジャパン バイスプレジデント、経営戦略室室長兼社長補佐の後藤貴志氏

これはまぁ周知の話であり、すでにデータセンターが消費する電力は十分に大きくなってしまっているわけだが、この先はさらに拡大する事が見えている(Photo02)。

  • すでにデータセンターが消費する電力は十分に大きくなってしまっている

    Photo02:ここまできても、「ではデータセンターあたりの消費電力を減らそう」とはならない辺りが人間の業の深さという事だろうか?

実は同社はこのデータセンターの、それも昨今の消費電力の大きなAIサーバー関連の売り上げが順調であり、2027年までに10億ユーロに達する規模になる、としている(Photo03)。

  • 主要なデザインウィンを並べたもの

    Photo03:主要なデザインウィンを並べたもの。何となく企業名が想像できる

問題は、「では電力足りないから発電所増やします」と単純に済まない(そもそも発電所を建設するのには相当手間がかかる)事で、例えば送電網の問題もある(Photo04)し、安定的に電力を供給できるかといった信頼性の問題もある(Photo05)。

  • Photo04:日本も他人事ではない

    Photo04:日本も他人事ではないのだが…

  • 例えば85%が86%になるだけでも大分必要とする電力は減る

    Photo05:例えば85%が86%になるだけでも大分必要とする電力は減る訳ではあるが、それでもPhoto02の勢いを止めるには全然足りないというか、100%にしてもまだ足りない辺りが問題ではある。といってもそこはInfineonにはどうしようもない訳で、出来るソリューションを提供するという姿勢は正しい

こうした課題に対し、エネルギー効率を8~10%改善できるようなソリューションを提供する、というのがInfineonの目標であるとしている(Photo06)。

  • 電力密度を上げないと電源のサイズがどんどん大型化する

    Photo06:電力密度は、要するにラックあたりに供給する電力がどんどん増えている現状では、電力密度を上げないと電源のサイズがどんどん大型化する訳で、サイズを変えずに供給できる電力を上げるという意味でもある

ラック当たり250KWの時代に対応する電源システムをどう構築するべきか?

Photo07はデータセンターの効率化を目指す団体であるOpen Compute Project(OCP)の示すOpen Rack v3のHPR(High Power Rack)における構成をまとめたものだが、現在はラックあたり150KW程度のものがすでに供用開始されている(Photo08)。

  • ラック側の設備

    Photo07:左半分がラック側の設備で、BBUはBattery Backup Unit、Super-capはSuper Capacitorベースの給電装備。IT trayが個々のサーバーの内部である

  • ラックあたり1MWに達すると、データセンター全体では1GWできかない事になる

    Photo08:ラックあたり1MWに達すると、データセンター全体では1GWできかない事になる。恐ろしい

これが600KWとか1MWになるのはちょっと先の話だが、もうちょっと身近なところでラックあたり250KW時代に向けた電源システムをどう構築するか? という話に関し、浦川辰也氏(Photo09)から説明が行われた。

  • 浦川辰也氏

    Photo09:インフィニオン C3(コンシューマー、コンピューティング&コミュニケーション)事業本部 テクニカルマーケティング部シニアディレクターの浦川辰也氏

250KW~将来の1MW時代になると、そもそも電力網からの給電方式が大幅に変わってくるとする(Photo10)。

  • 500KW/ラックだと電力供給部がラックの外に出る形になる

    Photo10:250KW/ラックの世代はPhoto08の構造の延長で行けるが、500KW/ラックだと電力供給部がラックの外に出る形になるし、内部は800V or ±400V DC給電となる。そして1MW世代だと、補助電源(太陽光その他)などともDCで接続されるほか、AC/DC変換がSST(Solid State Transformer)に切り替わるとする

これにあわせ、250KW/ラック世代からは、データセンター内の電力供給も±400V DCないし800V DCに変わるのは必須としており(Photo11)、これに対するラインナップを用意する必要がある。

  • 電圧上昇は言うまでもなく効率化

    Photo11:電圧上昇は言うまでもなく効率化(同じ電力なら流れる電流を減らせる分、配線抵抗の損失が削減できる)が主目的である。ただし電圧が上がる分、より危険度が増す事もあるのでその配慮が必要である

Si/GaN/SiCをどう使い分けるのか?

現在のラックというのは、例えばこんな構成になっている(Photo12)。

  • 高密度AIサーバの構成

    Photo12:よく見ると一番左のラックの絵と、その右の個々のトレイが微妙に一致していない気もするが、あくまでも例ということで

まずここで利用されるPower Supply Unit(PSU)については、すでに8KWまでのリファレンスデザインを提供しており、今後は12KW以上のもののリファレンスを提供するとしている(Photo13)。

  • 12KWという考え方

    Photo13:Photo12の例で言えば、PSU×24で192KWまで供給できるが、常にフル稼働だとゆとりがないので、6~7KW出力だとすると大体150KW位。これを250KWにしようとすると、最低でも11KW位の出力が必要になるので、まずは12KWということになる

同一体積で50%ほど電力密度を向上させている訳だ。現在はACは1相のものに対応しているが、今後は3相対応が要求される、と同社では見込んでいる模様だ。

ここでSi/GaN/SiCのどれが好ましいか? というのは、要するに何が要求事項かという話であり(Photo14)、例えばSiCを利用した場合には非常に広い出力範囲で高い変換効率を実現できる、としている(Photo15)。

  • 例えば効率向上のためにSwitching Speedを引き上げたければGaNが良い選択肢になる

    Photo14:例えば効率向上のためにSwitching Speedを引き上げたければGaNが良い選択肢になるし、コスト最重視ならSiC、TAT重視ならCMOS(Si)という具合に複数の選択肢を用意するとしている

  • それぞれの効率

    Photo15:左はPFC段の効率(緑)とPower Loss(黒)。右はPSU内部のPPB(Power Pulsating Buffers)/PFC(Power Factor Correction)/DCX(DC-DC)のそれぞれの効率を示したもの。例えば3つ全部が99.5%の効率でも、トータルすると98.5%(99.5×99.5×99.5)になるのは致し方なし。それでも全体で98%の効率を1200W~4200Wの範囲で実現できるとする

同様にBattery Backup Unit(BBU)に関しても、こちらは出力容量はバッテリー容量に比例するので、バッテリー容量を増やさないとこれ以上の出力増加は難しい(Photo16)。

  • できる事はBMSやDC-DCの専有体積を減らすこと

    Photo16:できる事はBMSやDC-DCの専有体積を減らして、その分大量にバッテリーを積む事しかない(バッテリーの改善そのものは同社の提供できる範囲の外である)

これに向けて、同社はより小型かつ高効率なBattery Management System(BMS)やDC-DCのReferenceを提供中であり(Photo17)、今後はより高効率なものを提供予定とする(Photo18)。

  • Photo17:現在提供中のリファレンス

    Photo17:こちらは現在提供中のリファレンス

  • 一応12KWなので250KW/ラックには対応できると思う

    Photo18:一応12KWなので250KW/ラックには対応できると思うが、今後はどうするのだろう? まぁラックあたりのBBUの数を増やすしかない気はするのだが

品質が最重要となるIBC

最後が個々のサーバー内部に搭載されるIntermediate Bus Converter(IBC:中間バスコンバータ)の話である(Photo19)。

  • Photo19:例えば50V→12V→0.7Vといった2段階ではなく、直接50V→0.7Vに変換するソリューションは? と確認したところ、そうしたトライを行っている顧客は居るが、安定性などの問題でまだ難しいとの事。まぁ判らなくはない,A直接50V→0.7Vに変換するソリューションなどは安定性などの問題でまだ難しいとのこと

InfineonによればこのIBCは品質が重要なポイントになるとしており(Photo20)、このIBCに必要なすべてのコンポーネントを同社はすでに提供中であることを示し(Photo21)、パワーモジュールの出力も2024年比で2倍のものを今年3月に発表した(Photo22)。

  • これは容易に頷ける話

    Photo20:これは容易に頷ける話で、なにしろGPUなりCPUなりのそばに配され、大電流が流れ(=発熱が大きく)、その割に冷却が不十分というケースはしばしば見かける。まぁ壊れない方がどうかしている

  • 2025年第1四半期からはIBCの機能を一体化したモジュールのサンプル提供も開始

    Photo21:2025年第1四半期からはIBCの機能を一体化したモジュール(右側)のサンプル提供も開始している

このパワーモジュールは、xPUの背面に配される事で、より効率的な電力供給が可能になる、としている(Photo23)。

  • 液冷サーバーのトレンドではこうしたパワーモジュールもまとめて冷却する方向性

    Photo23:ちょっと気になるのは、昨今の液冷サーバーのトレンドではこうしたパワーモジュールもまとめて冷却する方向になっているが、そのためには基板表面に実装しないと冷却配管が複雑になりすぎる事で、この辺をどう解決するつもりなのかちょっと気になる

ラック当たり1MW時代にどう対応していくのか?

最後に1MW/ラック時代に関する対応について、藤森正然氏(Photo24)より説明があった。

  • 藤森正然氏

    Photo24:インフィニオン I2(インダストリアル&インフラストラクチャー)事業本部 マーケティング部部長の藤森正然氏

先にPhoto10でも示したが、1MW/ラック世代ではそもそも外部からの電力供給方式そのものが変わってくる。要するにMicrogridと組み合わされる形になる訳だし、ACの給電はSolid State Transformer(SST:半導体変圧器)までという事になる。

この給電周りを簡単にまとめたのがこちら(Photo25)で、要するにMicrogrid(風力や太陽光、蓄電池、水素発電などを組み合わせたバックアップ電力)が、送電網から供給される高圧交流をSSTで変換した高圧直流(800V以上)と組み合わされる格好になる。

  • Microgridは1500V当たりを想定している

    Photo25:Microgridは1500V当たりを想定しているので、実際にはここもDC-DCが入って800Vに落として供給という形になるかと思うが

これは従来のデータセンターでは必要なかったものであるが、今後は必要とされるようになることが見えている。これに向けて同社はSiCベースのモジュール(Photo26,27)以外にもSolid-State Circuit Breaker(SSCB)のリファレンス(Photo28)、およびこれを構成するためのコンポーネント(Photo29,30)などもラインナップされているとする。

  • CoolSiC XHP2

    Photo26:2023年6月発表のこのCoolSiC XHP2、もともとは鉄道など煩雑にOn/Offを繰り返し、しかも長い耐用年数と信頼性が求められる用途向けとして投入された

  • 大電力のマネジメント向けを想定したもの

    Photo27:このシリーズは元々左にあるように、大電力のマネジメント向けを想定したものだが、データセンターもこの仲間入りをする時期になった、ということである

  • 高圧DCの場合、電源のOn/Offも色々と難しくなる

    Photo28:高圧DCの場合、電源のOn/Offも色々と難しくなる。このリファレンスはもちろん1500Vに耐えられるわけではないと思う

  • CoolSiC JFET

    Photo29:SSCBの様なスイッチングに特化したのが同社のCoolSiC JFETだそうだ

  • 現在は750Vと1200V耐圧が用意されている

    Photo30:現在は750Vと1200V耐圧が用意されているが、今後はさらに高電圧対応品が出て来そうだ

1MW/ラック時代が来るのはもう数年先だし、これを実現しようとすると配電網の方にも色々配慮というか対応が必要になるから、今すぐ構築という訳にはいかない。ただ2029年かそのあたりにはこれが現実のものになりそうだし、そこに向けて次世代データセンターの電力インフラを開発する際に必要となるキーコンポーネントをすでに提供中であり、こうしたニーズを拾ってゆく事で、Photo03に示された今後の売り上げの伸びを確実なものとしてゆきたい、という話であった。