東京工業大学、東北大学、富士通、理化学研究所は5月22日、スーパーコンピュータ「富岳」について、富岳の政策対応枠においてLLM(Large Language Model:大規模言語モデル)の分散並列学習手法の研究開発を2023年5月24日から翌年3月31日まで実施することを発表した。

LLMはChatGPTをはじめとする生成AIに用いられる深層学習モデルであり、4者は今回の研究開発の成果を公開することで、アカデミアや企業が幅広く使える大規模言語モデルの構築環境の整備を目指す。国内におけるAIの研究力向上に貢献し、学術および産業の両面から富岳の活用価値を高めるという。

論文「GPTs are GPTs」でも述べられているように、ChatGPTに代表される大規模深層学習モデルは自動車やスマートフォンのように社会全体のあり方を変える革新的な汎用技術だ。Society5.0における研究開発、経済社会、安全保障などのあらゆる側面から基盤技術として期待されるが、基盤モデルの性能を高めるためには大量データを効率的に処理する高性能計算資源が不可欠だ。

4者は今後、日本の研究者やエンジニアが大規模言語モデルの開発に活用できるよう、今回得られた研究成果を2024年度にGitHubやHugging Faceなどで公開する予定だ。多くの研究者や技術者が基盤モデルの改善や新たな応用研究に参画することで、効率的な方法の創出や次世代の革新的な研究・ビジネスの成果にもつながると期待できるとしている。