KDDIは2025年度内に、HPEと連携してNVIDIA Blackwell搭載のAIデータセンターを大阪・堺に構築すると6月末に発表した。KDDIが大阪・堺に構築中のデータセンターで、Hewlett Packard Enterprise(HPE)のNVIDIA Blackwell搭載ラック型サーバを導入する。発表の場となったHPEの年次イベント「HPE Discover Las Vegas 2025」で、KDDI 執行役員 先端技術統括本部 先端プラットフォーム開発本部長の丸田徹氏にHPEとの連携、AIの計画などについて話を聞いた。
高性能GPUと水冷技術で加速するKDDIのAIインフラ整備
--HPEとの連携内容について、教えてください。
丸田氏(以下、敬称略):今回、HPEの「NVIDIA GB200 NVL72 by HPE」を調達し、大阪・堺のAIデータセンターに設置・構築します。
2025年度(2026年3月)までに構築とアーリーフィールドトライアルを完了し、2026年度(2026年4月)より正式提供するという計画で進めます。また、HPEとKDDIの両社で大阪堺データセンターを活用したサービスのマーケティングを取り組み、AIソリューションの社会実装を加速していきます。
--なぜHPEのNVIDIA Blackwellサーバを選んだのでしょうか?
丸田:すでにHPEとは別の分野でお付き合いがあり、ハイパフォーマンス・コンピューティング、スーパーコンピュータ分野で高いエンジニアリング能力があると評価しています。
なぜエンジニアリング能力を重視したかというと、今回のGB200サーバは水冷システムになります。ラックマウント型でGPUを72個搭載するなど非常に高性能であり、その性能をしっかりと最大限に引き出したいと考えているからです。同時に、今回はTime to Market(市場に提供するまでの時間)を短縮することが至上命題です。
堺のデータセンターはシャープから購入しましたが、それも同じ理由です。水冷対応の施設を一から構築すると通常は3~4年必要ですが、既存工場を再利用することで時間を大幅に短縮できます。GB200サーバも同じで、他に選択肢はありますが、購入から提供までの時間を短縮したい、そこでHPEのスキルや技術力を評価して連携することにしました。
水冷システムで最も心配なのは水漏れですが、運用する中で故障して水が止まる事態になった場合、適切に対処しなければGPUが加熱して稼働に支障が出ます。水冷システムの構築自体は、パイプをつなぐなど難易度が高いものではありませんが、運用の部分はスキルが求められると思います。
--AIデータセンターと銘打っていますが、どのような用途を想定しているのでしょうか?
丸田:GPUを使ったデータ学習によるモデルのファインチューニングや、学習済みモデルの推論など、AIに関する学習・推論を行うデータセンターと位置付けています。
堺のデータセンターは水冷に対応していますが、水冷は必須ではないと考えています。現在、堺以外に多摩にもAI基盤を動かしているデータセンターがあります。
今後は5GとAIを組み合わせ、5Gで高速にアクセスし、GPUで高速にレスポンスを返すことで、スマートフォンでAIをストレスなく使える環境をユーザーに提供することを目指しています。将来的には全国の拠点にAIを整備していく計画です。
KDDIには3300万人のスマホ契約ユーザーのほかにIoTにも注力しており、すでに契約は5100万回線に及びます。IoTの回線も同拠点に集約し、エッジで処理することも想定しています。
Geminiとの連携で進化するKDDIのAI基盤構想
--4月にGoogle CloudとAIでの提携を発表しています。HPEとの関係を教えてください。
丸田:われわれはAI向けにGPU基盤のインフラを用意し、その上にAIのサービスやアプリケーション、LLM(大規模言語モデル)などを搭載するのですが、GoogleのGeminiは当社のインフラに統合します。4月の発表は、堺のAIデータセンターにGeminiを取り込む計画でした。
なお、Google Cloudとの提携は排他的なものではなく、Geminiのようなクローズドモデル、GemmaやLlamaといったオープンソースのモデルなどから選べる環境を目指しています。さらに、KDDIの子会社であるELYZAが、顧客の要求に合わせたファインチューニング済みカスタムモデルを構築することも検討しています。
--データ主権やソブリンクラウドへのニーズをどう見ていますか?また、データセンターへの投資の回収はどのように考えていますか?
丸田:お客さまの懸念があることは理解しています。Googleのサービスはクラウドでも使えますが、KDDIのインフラ上にあることでセキュリティを高め、ソブリン性を付加して、AIに関してもガードレールのような機能を提供できます。安心して使えるAIを提供していきたいと考えています。
投資の回収については、学習させることでモデルが構築され、そのモデルを推論に使って問い合わせに答えていくところにバリューが生まれます。モデルを作って推論を継続的に提供することで回収できると考えています。
KDDIは2024年4月に生成AI開発基盤への4年間で1000億円規模の投資を発表しましたが、十分回収可能と判断しています。さらに需要が拡大しても、しっかり対応していきます。
「KDDI VISION 2030」に見る、未来構想とAIの役割
--KDDIのAI活用について、計画を教えてください。「KDDI VISION 2030」でのAIの位置づけを教えてください。
丸田:AIの活用に関しては、カスタマーサポートでの活用が考えられます。AIを使ってオペレーターを支援する情報を出すといったユースケースです。
次のステップでは、AIがオペレーターの代わりになることも考えています。ただし、ユーザーインターフェイスは慎重に進めます。
無線ネットワーク運用では、デジタルツインを活用した障害の未然防止も検討しています。これらに加え、ビジネスオペレーションのデータドリブン化も進めます。
また、KDDI VISION 2030を進化させる戦略の1つに「新サテライトグロース戦略」があります。ここでは、AI、5G、データを中心にOrbit1としてDX(デジタルトランスフォーメーション)、金融、エネルギーなどの周辺ビジネスを配置し、Orbit2としてスポーツ・エンタメ、宇宙といった将来伸びていくようなビジネスを配置しています。
5G、AI、データはすべてのビジネスのドライバーになると考えており、2030年に向けていかに使えるものにしていくか、民主化していくか。AIはそこに貢献できると考えています。
--AIデータセンターの構築など、スピードを重視されているように感じます、これまでとやり方が異なりますが、文化的な課題を感じていらっしゃいますか?
丸田:AIの進化は早く、たとえば3カ月前と現在では状況が異なります。スピード感を持って、提供していくことが求められています。
そのために、従来のようにエンジニアリング、検証、チューニングに時間をかけるアプローチから、スピード重視への大きなマインドシフトが必要です。
ただし、品質を犠牲にするわけにはいきません。検証済みアーキテクチャの活用で時間を節約し、同等の品質をより早く提供する取り組みを進めています。大きなチャレンジですが、着実に進歩しています。
--今後の抱負をお聞かせください。
HPEのGB200を導入して基盤を提供し、それを使っていただくことで世の中に価値を届けることができると考えています。基盤構築だけでなく、利用段階までお客さまに伴走し、寄り添ったAIの普及を目指します。
そして、次々と登場する最新の技術をいち早くお客さまに届け、日本が世界の一線を共に走っていけるように、AIデータセンターで環境を届けることが責務だと考えています。