米Googleは4月9日(現地時間)、同社初のArmベースのデータセンター向けカスタムCPU「Google Axion」を発表した。YouTube広告やGoogle Earth EngineといったGoogleのサービスでの利用が始まっており、今年後半にはGoogle Cloudの顧客への提供を開始する予定である。

AxionはArm Neoverse V2 CPUを使用して構築されており、特定の用途に特化したカスタムシリコン・マイクロコントローラと、階層化されたスケールアウト・オフロードのシステム「Titanium」を採用している。これにより、インフラのパフォーマンス、ライフサイクル管理、信頼性、セキュリティが向上する。Titaniumは、ストレージのI/O処理をHyperdiskにオフロードする。Hyperdiskはインスタンスサイズからパフォーマンスを切り離し、リアルタイムで動的にプロビジョニングできる新しいブロックストレージサービスである。

Googleの発表によると、Axionを用いたインスタンスは、現在クラウド上で利用可能な最速の汎用Armベースインスタンスに比べて最大30%の性能向上を実現する。また、同等の現行世代のx86ベースインスタンスに比べても、性能が最大50%、エネルギー効率が最大60%向上するとされている。

AIブームは今、持続可能性の壁に直面している。9日にWall Street Journalが公開したArmのレネ・ハースCEOのインタビューで、同氏は現在のAIモデルが消費する電力の加速度的な増加について警鐘を鳴らした。10年後までにはAIデータセンターが米国の電力需要の20〜25%を消費する可能性があるという。ブレークスルーのペースを維持していくためには、持続可能性の実現が不可欠であり、より高い効率性が必要だと強調した。

Google Cloudのデータセンターは5年前と比較して、すでに業界平均の1.5倍の効率性を実現し、同じ電力量で3倍のコンピューティングパワーを提供している。Axionプロセッサの使用により、エネルギー効率のさらなる最適化が可能となる見込みである。

Googleはまた、AI専用アクセラレータ「Tensor Processing Unit(TPU)」の新バージョン「TPU v5p」の一般提供を開始した。1ポッドあたりの計算能力が前世代に比べて4倍向上。訓練と推論に適した高いパフォーマンス、柔軟性、スケーラビリティを備え、大規模なLLMモデルを前世代のTPU v4に比べて最大2.8倍高速に学習可能である。