オルツは2月14日、Duc-Minh Nguyen教授(Vice Dean, School of Electrical and Electronic Engineering, Hanoi University of Science and Technology)との共同研究を開始したことを発表した。
この研究を通じて、LLM(Large Language Models:大規模言語モデル)を活用して産業特化型GPUの設計プロセスを変革し、従来のGPU設計コストの約80%、年間最大226億ドル削減することを目指すとのことだ。
LLM主導で変わるGPU設計
近年のAIワークロードの多様化に伴って、従来の汎用GPUでは最適な演算処理が難しい例が増えている。特に、HPC(高性能計算)、自動運転、医療AI、エッジデバイスなどの分野では用途特化型のカスタムチップ設計が求められているという。しかし現在のGPU設計プロセスは複雑でコストが高く、特定用途向けのチップ開発には課題と障壁が残される。
そこでオルツらは今回のプロジェクトにおいて、LLMを活用した「計算アーキテクチャ生成モデル(Computational Architecture Generation Model)」を構築し、課題の解決を目指すとしている。
具体的には、各産業のワークロードを分析してLLMが最適なアーキテクチャを生成するほか、設計の初期段階から論理設計・回路配置・試作まで自動化、高効率なハードウェア / ソフトウェア協調設計(Co-Design)などに取り組む。
その他、Minh教授が専門とするSRAMベースのスパイキングニューラルネットワーク(SNN)設計の知見を活かしたソフトウェア / ハードウェア統合の最適化、シリコン実装の試作回数削減、AIシミュレーションによる設計変更のコストと時間の削減、シリコン試作回数を減らしファウンドリの負担軽減などにも取り組む。
オルツがプロジェクトを主導する意義
GPUはAIの計算基盤として不可欠であるにもかかわらず、その設計および開発プロセスは依然として非効率だとされる。しかし、オルツはAI・ロボティクスが自身の計算基盤を進化させる時代の到来を予測している。人間の手を借りずにAIが必要なハードウェアを設計し、それを最適化していく世界、ならびに自己進化(Self-Evolution)・自己適応(Self-Adaptation)を実現するべく、その基盤技術として今回の研究プロジェクトを開始するという。
同社はGENIACプログラムに採択されており、P.A.I.(Personal Artificial Intelligence)技術の開発と、LLMの高度な適用領域を拡大することに注力する。その一環として、AIが自ら計算基盤を最適化する「AIによるハードウェア設計の自動化」に挑戦する。
また、Minh教授は「Software / Hardware Co-Design for a SRAM-Based Spiking Neuron Network」プロジェクトで2025年 “Code-a-Chip” competition の賞を受賞するなど、次世代AIアーキテクチャの設計最適化において評価を受けている。Minh教授の専門知識とオルツのLLM技術を組み合わせ、従来のGPU設計におけるボトルネックを取り除き計算アーキテクチャのパラダイムシフトを引き起こすことを目指すとしている。