米Microsoftは11月15日(現地時間)、データセンター向けのカスタム設計チップ、「Microsoft Azure Maia 100 AI Accelerator」と「Microsoft Azure Cobalt 100 CPU」を発表した。Maia 100はAIタスクと生成AIに最適化したAIアクセラレータであり、Cobalt 100はクラウド上で汎用コンピューティングワークロードを実行するために調整されたArmベースのCPUだ。これらは2024年の初めにAzureデータセンターに導入され、Microsoft CopilotやAzure OpenAI ServiceなどMicrosoftのサービスで利用される。

Maia 100は、5nmプロセス技術を採用し、1,050億個のトランジスタを搭載した5nmプロセスで最大級のチップとなる。

複雑なAIワークロードを処理するために、クラウド・データセンターにGPUが導入されるようになったが、現在の生成AIブームのニーズに応えるには、AIワークロード特有の要件に最適化した設計を取り入れていく必要がある。大規模なAIモデルを多くのデータで長期間トレーニングすることで、モデルの精度は高まる。そのため、AI向けデータセンターは大規模なコンピューティング能力の要求に応え、それを長期間にわたって安定して稼働させ続ける必要がある。

Microsoftは、Maia 100のシステムを使って既存のフットプリント内でサーバー能力を最大化できるように、AIワークロードの要求を満たす電源ケーブルとネットワークケーブルを収納できる幅の広いラックを設計した。また、集中的な計算要求でも効率的な動作を保てるように、自動車のラジエーターのような働きをする液冷ユニットも開発した。そうしたチップからハードウェア、データセンターまで全てをカスタムメイドすることで、AIトレーニングの厳しい要求に対応し、コストダウンを実現していく。

Omdiaの2021年のレポートによると、データセンター向けのAIプロセッサー市場でNVIDIAが売上ベースで約8割のシェアを占めており、代替品が少ない状況からNVIDIAのGPUに対する需要過多が顕在化している。Microsoftが独自のAIアクセラレータを開発することで、NVIDIA依存を緩和できる。

一方でMicrosoftは、カスタムラックから得た設計上の知見をパートナーと共有するなど、パートナーとの協力関係を保ちながら、顧客の選択肢の拡大につなげようとしている。Maia 100の導入と並行して、2024年にはNVIDIAの「H200 Tensor Core GPU」を追加して、より大規模なモデルの推論をサポートする計画だ。また、AMDとのパートナーシップを拡大し、来年の早期にアクセラレータ「MI300」がAzureで利用できるようになることも発表した。

Cobalt 100は、64bit 128コア構成で、プロセスノードは公表されていない。Microsoftによると、現在TeamsやAzure SQLに用いているArmチップと比べて、最大40%パフォーマンスが向上する。効率性を高めるチップからデータセンター冷却に至るまで、各コンポーネントの調和のとれた相互作用を実現するシステムアプローチによって、環境負荷の軽減を最大限に実現する。