PCや周辺機器の製造・販売を行うアプライドは11月26日、「一歩先を行くビジネス提案 アプライドビジネスフェア」を開催し、最新のAIサーバやHPC製品を紹介した。このイベントでは、数多くのコンピュータが展示されたほか、セミナーも開催、多くの人が来場していた。
同社は、AIの研究に必要不可欠なハイパフォーマンスコンピュータのメーカーとして、大学や企業の研究部門への多数の納品実績がある。
セミナーでは、NVIDIA エンタープライズ事業本部 プロフェッショナルビジュアライゼーション ビジネスデベロップメントマネージャー 高橋想氏が、NVIDIA Grace Blackwell を搭載したCPUとGPUを統合したスーパーチップ「NVIDIA GB10」について説明したほか、エムエスアイコンピュータージャパン Rick Wu氏は、GB10を搭載した手のひらサイズのAIデスクトップ スーパーコンピューター「MSI EdgeXpert」を紹介した。
「NVIDIA GB10」とは
「NVIDIA GB10」は、今年1月のCESで発表されたFP4 精度で最大1ペタフロップス(1秒間に1000兆回のAI処理ができる)システムオンチップ(SoC)。GB10 は、最新世代のCUDAコアと第5世代Tensorコアを備えた NVIDIA Blackwell GPUを搭載しており、NVLink-C2Cチップ間相互接続を介して、ARMアーキテクチャで構築された20個の電力効率に優れたコアを含むNVIDIA Grace CPUに接続されている
GB10では、「NVIDIA Sync」という、リモートのGB10にアクセスして、その環境情報を確認可能なツールも提供され、開発環境を立ち上げてリモートでIDを操作することも可能となっている。
「これまでは、ローカル環境でAI開発をすると、マシンパワーやGPUメモリが足りないといったケースがありました。しかし、GB10はローカル環境でAI開発ができる性能やメモリ領域を有しており、従来のPCでは扱えなかったモデルを作ることができます」(高橋氏)
また、UbuntuベースのNVIDIA DGX-OSを搭載し、その上にNVIDIA AI Stackとして、LLM(大規模言語モデル)、VLM(Vision-Language Model:画像や動画などの視覚情報と、テキストなどの言語情報を統合的に処理するAIモデル)、VLA(Vision Language Action:ロボットや自動運転など、周囲の環境を認識して、その上で最適なアクションを出力する)モデルなどが搭載されている。
GB10の具体的な活用例とは
GB10の具体的な活用例としては、ローカル環境でのAI開発と、開発したAIを動かしていく本番環境の両方で利用することを想定しているという。
高橋氏によれば、GB10の大きな特徴として、Webで提供している「AI Playbook」の存在があるという。「AI Playbook」では、最初に何をしていいのかわからない人に向け、20程度の用途を想定し、それにあわせて初期設定などを紹介する簡単なセットアップガイドとなっている。
「AI Playbook」を利用すれば、NVIDIAの決算発表資料をまとめてWebに掲載したいと依頼すると、それをまとめた資料を公開するために必要なコードを返してくれるというモデルを作ることが可能になるという。
また、動画分析も可能だ。アーカイブ動画を分析させて、「バスケットボールの試合で3ポイントのシュート確率が最も高い人を問い合わせる」「ドローンで撮影した高速道路の状況の映像から事故のレポートを作成する」「サーバの組み立て作業の手元の映像を撮って抜けている手順を分析して示す」といったことができるという。
「従来は人間が張り付いて監視カメラの映像を確認していましたが、それをAIに任せることによって省人化が図れ、精度も高く、何かあれば管理者にアラートを出すシステムを作ることも可能になっています。こうしたユースケースを試してみようと思えば、AI Playbookに手順付きで表示されます」(高橋氏)
また、GB10は教育用途でも利用可能で、米ニューヨーク大学は演習用のシステムとしてGB10を導入しているほか、米スタンフォード大学の人工知能研究所も導入している。
NVIDIAは「NVIDIA Deep Learning Institute」教育プログラムも用意しており、無償で利用できるという。
GB10を搭載した「MSI EdgeXpert」
エムエスアイコンピュータージャパンは、NVIDIA GB10を搭載した、スーパーコンピューター「MSI EdgeXpert」を10月16日から販売しており、同社 プロジェクトマネージャー Rick Wu氏が詳細を説明した。
「MSI EdgeXpert」は、151mm×151mm×57mmのコンパクトサイズながら高性能なAI計算能力を持つ産業用パソコン。プロセッサはARMとNVIDIAの最新GPUを組み合わせ、NVIDIA GeForce RTX 5070相当の性能を持ち、128GBの共有メモリを搭載し、大規模AIモデルの運用やNVIDIA ConnectX-7による複数台接続による256GBメモリの活用も可能。この構成によって、最大4050億パラメータの大規模AIトレーニングが可能になるという。
「MSI EdgeXpert」はモニター、キーボード、マウスを接続するだけで、単体動作させることが可能だが、リモートアクセス用に設定することで、Wi-Fi 7やイーサネットによるネットワークにつながった計算用マシンとしても活用できるという。
また、システムのソフトウェアが破損した場合でも、MSIのサイトからダウンロードしてUSBメモリに保存すれば、いつでも出荷時の状態に復元できる。
「MSI EdgeXpert」は大きな熱を効率的に抑えるため、上部には大型ファンを搭載。その下には、大面積のベーパーチャンパー式のエンドヒートスプレッダと3本のヒートパイプによる効率的な熱伝導を実現している。
「パーチャンパー式は少量の液体が入っていて、蒸発と凝縮を利用して熱を一気に広げる仕組みになっています。そのため、熱の広がる速さは銅プレートの十数倍以上と言われています。専用のヒートパイプによって背面へ効率よく熱を逃がす構造になっています」(Wu氏)
MSIの筐体設計は安全性と耐久性の両立を重視し、金属フレームはプラスチックで構造を採用。この設計は非常に強度が高く、100キロを超えるエンジニアが乗っていても変形しないという。また、静音もこだわっており、常時40dB以下でオフィスの使用に最適だという。
「MSI EdgeXpert」は、AIの試作やPoC開発に適し、企業のデータサイエンティストやAI開発者、中小企業のIT担当者、教育機関、医療、金融分野での活用が期待されている。
「社内でAIを使って業務を改善する、AIを使って新しいサービスを作るというミッションを任されたときに、このMSI EdgeXpertを開発用ツールとして活用できる点が強みになります。限られた予算でAIを導入して生産性を上げてほしい、そうした依頼を上司から受けることは多いのではないでしょうか。こうした場面で、MSI EdgeXpertは頼りになり、NVIDIAの豊富な教材やツールを使って高精度なAI環境を構築できます。医師の方はAIを補助ツールとして医療活動の診断に活用でき、その結果をカンファレンスや症例共有の場でも院内だけで完結して安全に利用することができます」(Wu氏)
アプライドのAIサーバ・HPC製品とは
今回のイベントを主催したアプライドは、福岡市博多区にある工場でセル生産方式を採用し自社生産し、法人、大学、研究機関向けに特定用途のワークステーションやAI開発用PCを製造している。同社では、製品の性能と耐久性を確保するため、80以上の検査項目をクリアした製品のみ出荷している。
同社が取り扱っている製品ラインアップは、大きくBTOとHPCの2種類に分けられる。BTOは普段使われるパソコンで、HPCでは科学技術計算用のパソコンとなる。
BTO製品の中には、事業でよく使われるクライアントPC、産業用マザーボードを使用したファブリックPC、そしてCADに特化したセルフワークステーションが含まれ、ファブリックPCは業務を止めたくない業種に特化したBTO製品で、高耐久性のパーツを使用。耐熱性に優れたマザーボード、長時間の連続稼働に対応できるストレージ、安定した電源を搭載しており、これによって日常的な運用の中でのリスクを減少させているという。
その他、産業用のパネルレスの手のひらサイズのナックPC、組み込み用のパネルPC、産業用タブレットなども提供する。
HPCは、AI開発用のサーバ、研究、設計、開発用など専門的な計算処理に特化したPCだという。
セミナーではアプライド 生産事業部 奥羽倫典氏が、研究業務で使う本番向けAIサーバをどう選ぶのかについて解説した。奥羽氏によれば、AIサーバは、GPUの性能を引き出すために電源、冷却、PCI帯域、ストレージなどが総合的に最適化されたサーバだという。
AI開発ではGPUメモリ容量、メモリ帯域、Tensor コア世代のGPU間の通信が性能に直結する。生成AIにおいては特に、VM不足が大きな問題なり、GPU選定はAI開発を成功させるための第一歩だという。
そして奥羽氏は、同社が販売する今後需要が高まる、AI解析や大規模データ処理に最適なAIサーバを紹介した。
1機種目はAIサーバ「Type-MSHP4UEP1S12B」で、AI開発向け4Uラップマウントサーバとなっており、このモデルは3つの特徴があるという。
1つ目の特徴は3.5スロットアウトの大型のGPUにも対応しており、GeForce系のGPUを最大4枚まで搭載可能な点。2つ目は優れた冷却性で、前面にホットスタック対応のファンを5機搭載している。3つ目は高性能CPUと冷却システムの採用で、第4、第5世代EPYC9005に対応し、水冷CPUクーラーを搭載。生成AI、ディープラーニングのほか、レンダリング、動画編集に最適なモデルとなっているという。
2機種目は最新のAIサーバの「CERVO-Grasta-Type-MGX-H200」。4Uラップマウント筐体をベースに、第6世代IntelのXeonとNVIDIAのH200GPUを8機搭載している。H200はエネルギー効率に優れ、推論処理やリアルタイムデータの解析に最適で、ビッグデータ解析、金融のリスク予測、製造業の品質管理、医療分野の画像解析など、幅広い分野で活用が可能だという。
「複雑なシミュレーションやリアルタイム解析を高速かつ安定して処理できますので、企業のデータセンターや、クラウド環境にも適した製品となっています」と 奥羽氏はアピールした。



















