Infineon Technologiesの日本法人であるインフィニオン テクノロジーズ ジャパンは7月10日、AIデータセンターに向けた高効率な電力供給に関する同社のロードマップと製品ラインナップに関する説明を行った。
近年のAIデータセンターを取り巻く消費電力事情
まず後藤貴志氏(Photo01)より、昨今のデータセンター事情についての概略の説明があった。
これはまぁ周知の話であり、すでにデータセンターが消費する電力は十分に大きくなってしまっているわけだが、この先はさらに拡大する事が見えている(Photo02)。
実は同社はこのデータセンターの、それも昨今の消費電力の大きなAIサーバー関連の売り上げが順調であり、2027年までに10億ユーロに達する規模になる、としている(Photo03)。
問題は、「では電力足りないから発電所増やします」と単純に済まない(そもそも発電所を建設するのには相当手間がかかる)事で、例えば送電網の問題もある(Photo04)し、安定的に電力を供給できるかといった信頼性の問題もある(Photo05)。
-
Photo05:例えば85%が86%になるだけでも大分必要とする電力は減る訳ではあるが、それでもPhoto02の勢いを止めるには全然足りないというか、100%にしてもまだ足りない辺りが問題ではある。といってもそこはInfineonにはどうしようもない訳で、出来るソリューションを提供するという姿勢は正しい
こうした課題に対し、エネルギー効率を8~10%改善できるようなソリューションを提供する、というのがInfineonの目標であるとしている(Photo06)。
-
Photo06:電力密度は、要するにラックあたりに供給する電力がどんどん増えている現状では、電力密度を上げないと電源のサイズがどんどん大型化する訳で、サイズを変えずに供給できる電力を上げるという意味でもある
ラック当たり250KWの時代に対応する電源システムをどう構築するべきか?
Photo07はデータセンターの効率化を目指す団体であるOpen Compute Project(OCP)の示すOpen Rack v3のHPR(High Power Rack)における構成をまとめたものだが、現在はラックあたり150KW程度のものがすでに供用開始されている(Photo08)。
-
Photo07:左半分がラック側の設備で、BBUはBattery Backup Unit、Super-capはSuper Capacitorベースの給電装備。IT trayが個々のサーバーの内部である
これが600KWとか1MWになるのはちょっと先の話だが、もうちょっと身近なところでラックあたり250KW時代に向けた電源システムをどう構築するか? という話に関し、浦川辰也氏(Photo09)から説明が行われた。
250KW~将来の1MW時代になると、そもそも電力網からの給電方式が大幅に変わってくるとする(Photo10)。
-
Photo10:250KW/ラックの世代はPhoto08の構造の延長で行けるが、500KW/ラックだと電力供給部がラックの外に出る形になるし、内部は800V or ±400V DC給電となる。そして1MW世代だと、補助電源(太陽光その他)などともDCで接続されるほか、AC/DC変換がSST(Solid State Transformer)に切り替わるとする
これにあわせ、250KW/ラック世代からは、データセンター内の電力供給も±400V DCないし800V DCに変わるのは必須としており(Photo11)、これに対するラインナップを用意する必要がある。
Si/GaN/SiCをどう使い分けるのか?
現在のラックというのは、例えばこんな構成になっている(Photo12)。
まずここで利用されるPower Supply Unit(PSU)については、すでに8KWまでのリファレンスデザインを提供しており、今後は12KW以上のもののリファレンスを提供するとしている(Photo13)。
-
Photo13:Photo12の例で言えば、PSU×24で192KWまで供給できるが、常にフル稼働だとゆとりがないので、6~7KW出力だとすると大体150KW位。これを250KWにしようとすると、最低でも11KW位の出力が必要になるので、まずは12KWということになる
同一体積で50%ほど電力密度を向上させている訳だ。現在はACは1相のものに対応しているが、今後は3相対応が要求される、と同社では見込んでいる模様だ。
ここでSi/GaN/SiCのどれが好ましいか? というのは、要するに何が要求事項かという話であり(Photo14)、例えばSiCを利用した場合には非常に広い出力範囲で高い変換効率を実現できる、としている(Photo15)。
-
Photo14:例えば効率向上のためにSwitching Speedを引き上げたければGaNが良い選択肢になるし、コスト最重視ならSiC、TAT重視ならCMOS(Si)という具合に複数の選択肢を用意するとしている
-
Photo15:左はPFC段の効率(緑)とPower Loss(黒)。右はPSU内部のPPB(Power Pulsating Buffers)/PFC(Power Factor Correction)/DCX(DC-DC)のそれぞれの効率を示したもの。例えば3つ全部が99.5%の効率でも、トータルすると98.5%(99.5×99.5×99.5)になるのは致し方なし。それでも全体で98%の効率を1200W~4200Wの範囲で実現できるとする
同様にBattery Backup Unit(BBU)に関しても、こちらは出力容量はバッテリー容量に比例するので、バッテリー容量を増やさないとこれ以上の出力増加は難しい(Photo16)。
これに向けて、同社はより小型かつ高効率なBattery Management System(BMS)やDC-DCのReferenceを提供中であり(Photo17)、今後はより高効率なものを提供予定とする(Photo18)。
品質が最重要となるIBC
最後が個々のサーバー内部に搭載されるIntermediate Bus Converter(IBC:中間バスコンバータ)の話である(Photo19)。
-
Photo19:例えば50V→12V→0.7Vといった2段階ではなく、直接50V→0.7Vに変換するソリューションは? と確認したところ、そうしたトライを行っている顧客は居るが、安定性などの問題でまだ難しいとの事。まぁ判らなくはない,A直接50V→0.7Vに変換するソリューションなどは安定性などの問題でまだ難しいとのこと
InfineonによればこのIBCは品質が重要なポイントになるとしており(Photo20)、このIBCに必要なすべてのコンポーネントを同社はすでに提供中であることを示し(Photo21)、パワーモジュールの出力も2024年比で2倍のものを今年3月に発表した(Photo22)。
-
Photo22:TDM2454xxは2025年3月に発表された
このパワーモジュールは、xPUの背面に配される事で、より効率的な電力供給が可能になる、としている(Photo23)。
-
Photo23:ちょっと気になるのは、昨今の液冷サーバーのトレンドではこうしたパワーモジュールもまとめて冷却する方向になっているが、そのためには基板表面に実装しないと冷却配管が複雑になりすぎる事で、この辺をどう解決するつもりなのかちょっと気になる
ラック当たり1MW時代にどう対応していくのか?
最後に1MW/ラック時代に関する対応について、藤森正然氏(Photo24)より説明があった。
先にPhoto10でも示したが、1MW/ラック世代ではそもそも外部からの電力供給方式そのものが変わってくる。要するにMicrogridと組み合わされる形になる訳だし、ACの給電はSolid State Transformer(SST:半導体変圧器)までという事になる。
この給電周りを簡単にまとめたのがこちら(Photo25)で、要するにMicrogrid(風力や太陽光、蓄電池、水素発電などを組み合わせたバックアップ電力)が、送電網から供給される高圧交流をSSTで変換した高圧直流(800V以上)と組み合わされる格好になる。
これは従来のデータセンターでは必要なかったものであるが、今後は必要とされるようになることが見えている。これに向けて同社はSiCベースのモジュール(Photo26,27)以外にもSolid-State Circuit Breaker(SSCB)のリファレンス(Photo28)、およびこれを構成するためのコンポーネント(Photo29,30)などもラインナップされているとする。
-
Photo26:2023年6月発表のこのCoolSiC XHP2、もともとは鉄道など煩雑にOn/Offを繰り返し、しかも長い耐用年数と信頼性が求められる用途向けとして投入された
1MW/ラック時代が来るのはもう数年先だし、これを実現しようとすると配電網の方にも色々配慮というか対応が必要になるから、今すぐ構築という訳にはいかない。ただ2029年かそのあたりにはこれが現実のものになりそうだし、そこに向けて次世代データセンターの電力インフラを開発する際に必要となるキーコンポーネントをすでに提供中であり、こうしたニーズを拾ってゆく事で、Photo03に示された今後の売り上げの伸びを確実なものとしてゆきたい、という話であった。