AIサーバ向けカスタムASICの需要が拡大
市場調査会社Counterpoint Researchによると、AIサーバ向けカスタムASICの出荷量は、2027年には2024年比で3倍に増加することが予測されるという。
背景には、Geminiに向けたGoogleによるTPUの活用機会の増加のほか、AWSによる学習/推論SoC「Trainium」のスケール拡大、Metaの「MTIA(Meta Training and Inference Accelerator)」およびMicrosoftの推論チップ「Maia」の活用推進などがあるという。
GPUの高性能化に伴う価格高騰、電力や設置スペース確保の問題などがあるためで、カスタムASICの活用によりハイパースケーラーは柔軟性を得ることが期待できるようになる。そのためAIサーバ向けカスタムASICの出荷量は2028年には1500万台を突破し、データセンターGPUの出荷量を上回るとするほか、上位10社のAIハイパースケーラーに向けて、2024~2028年にかけて累計4000万超のカスタムASICが出荷されることが予測されるという。
中でもGoogleは、他社のカスタムASICの採用拡大で2027年にはシェアを52%まで落とすことが予想されるが、それでもAIサーバ向けカスタムASICの過半を抑えて存在感を示し続けることが予想されており、Geminiの学習および推論で必要となる継続的な計算需要の増大への対応が背景にあるとする。
MediaTekのカスタムASIC設計ビジネスへの参入のインパクト
ハイパースケーラー各社のカスタムASICは半導体設計パートナーと協力する形で開発されているわけだが、その筆頭で2016年からTPU開発で協力してきたBroadcomが、MediaTekの参入により競争圧力が強まる可能性が出てきた。Googleの第8世代TPU(TPU v8)シリーズでは、デュアルソース戦略で高性能なTPU v8AX「Sunfish」をBroadcomが、推論向けけTPU v8x「Zebrafish」をMediaTekがそれぞれ設計を担当すると見られており、背景にはBroadcomは高性能ながら高価格な一方、MediaTekはコスト効率を重視する方向であり、より推論タスクの大量展開で求められる低コストソリューション戦略にマッチするためだと見られている。
また、台湾Alchipは、今後数年間の主要設計パートナーとしてAWSサプライチェーンに進出しており、AWS Trainiumの設計を担当してきたMarvellの将来ロードマップに影響を与える可能性がある。MarvellはMicrosoftのMaiaシリーズも設計を担当するなどパイプラインの多様化を進めており、その結果、カスタムASICの出荷量は2024年から2027年の間に倍増するものの、競合との競争激化に伴ってシェアは2027年に8%まで低下することが予想されるとしている。
なお、Marvellは光接続技術を手掛けるCelestial AIを買収することでAI関連の対象市場の拡大を図っており、このアプローチがスケールの拡大が進むAIデータセンターにおける今後のMarvellのカスタムASICビジネスのシェアアップにつながることが期待されるという。

