NVIDIAのDGX B200を用いたスパコンを東京工科大が構築へ

東京工科大学は6月11日、NVIDIAのBlackwell GPU アーキテクチャを採用した統合型AIプラットフォーム「NVIDIA DGX B200」を用いたAIスーパーコンピュータ(スパコン)を構築し、2025年10月より本格稼働させる計画を発表した。

  • 「NVIDIA DGX B200」

    「NVIDIA DGX B200」。東京工科大は、これを12台接続したAIスパコンを2025年10月より稼働させる (提供:東京工科大)

同AIスパコンは、DGX B200システムを12台、NVIDIA Quantum InfiniBandの高速ネットワークで接続し、NVIDIA DGX BasePODリファレンス アーキテクチャに基づいて設計されるもの。システム全体のAIの学習理論性能(FP8)は0.9EFLOPSで、国内の私立大学では最大級のAIスパコンになるという。

2023年よりNVIDIAと連携を進めてきた東京工科大

同大は2023年にNVIDIAの日本法人と学術交流連携を締結。AIにとどまらず、人材育成や研究のコラボレーションも推進してきており、例えばNVIDIAテクノロジーの活用と啓蒙が可能な学生の育成を目指す「NVIDIA 学生アンバサダープログラム」では、同大の学生がNVIDIA社員のサポートを受けながら生成AIやロボティクス、デジタルツインのテクノロジーを習得するといった協業を進めてきたという。

今回のAIスパコン設置について同大では、AIスキルを身につけるための最短ルートは実践にあるとの考えのもと、学生が小規模なデータや小規模なプロジェクトだけで満足していては、将来イノベーションを生み出すようなAI活用の本質を学ぶことはできないとの判断から、計算資源の制約にとらわれることなく、大規模データと高性能な計算環境を活用しながら学び続けられるようにすることを実現するべく投資を決定したと説明している。

演算性能だけでなく、AI活用に向けたソフトでも協力

そのため単なるハードウェアの拡充に留まらず、NVIDIA NIM や NeMo マイクロサービスを含むソフトウェア ツール、ライブラリ、フレームワークで構成されるクラウド ネイティブのスイートである「NVIDIA AI Enterpriseソフトウェア プラットフォーム」の導入も決定しており、AIの活用を推進していくことを目指すとする。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら