NVIDIAは7月25日、都内にてGPU Technology Conference 2011(GTC 2011)を開催し、国内のGPUコンピューティングの活用に関する同社ならびに研究者や企業などの活動報告などを行った。同カンファレンスで紹介されたロードマップやProject Denver、Echelonチップに関する話題はすでに報じられいる内容を超えたものではなく、Parallel Nsight 2に関してもHisa Ando氏のレポートが掲載されているので、そちらを参照していただきたい。というわけで、今回は同社のアジア・太平洋地域のTeslaおよびQuadra事業と日本法人エヌビディアを統括するSteve Furney-Howe氏にアジア地域を取り巻くGPUコンピューティングの動向を聞いたので、その模様をお伝えしたい。

NVIDIAのVice President,JAPAN Worldwide SalesのSteve Furney-Howe氏

――日本ではTSUBAME 2.0に代表されるアカデミックな分野でのGPUコンピューティングの適用が進んでいますが、ビジネス分野ではどうでしょう?

Furney-Howe氏(以下、敬称略):確かにアカデミックの伸びは目立っているように見えるが、ビジネス分野への適用も着実に進んでいる。しかし、我々のカスタマは、GPUコンピューティングの活用が差別化、つまり競合優位性を実現するための武器になるとしてそれを公表することを望んでいないため、あまり表立って伸びているように見えないのだろう。

PRとしてはスーパーコンピュータ(スパコン)を出しやすいので、そうなってしまうのだが、今後はそうした商業アプリも積極的にアピールしていきたいと思っているよ。

――今のは日本の状況を聞きましたが、アジア全体ではどうでしょう?

Furney-Howe氏:アジア・太平洋地域には多くの国が存在するが、例えば工場の製造品質の差はあるがマシンビジョンは共通してどこでも使われている。また、石油を中心にエネルギー資源を持つ国、特に中国ではその解析に用いられている。この分野はGPUコンピューティングの最大マーケットといえる。さらに、創薬分野などのシーケンサ、中国BGIなどはよく活用している。加えて、大きな証券取引所、例えば東京、上海、シンガポールなどは金融シミュレーションに活用している。

――東京工業大学(東工大)の青木教授ら、GPUコンピューティングを推進してきた日本の科学分野の一部の人たちからは、ソフトウェア部分含めてクラスタ化したGPUコンピューティングの活用における中国に対する危機意識が高い感じられます。ベンダ側から見た中国の意気込みとはどの程度のものなのでしょうか?

Furney-Howe氏:勢いを持っているのは日本も中国も同じくらいだ。双方に共通して言えるのは、優秀な人材が居て、そして早くからGPUコンピューティングの活用に向けた取り組みを進めてきたことだ。

Fermiの出荷でグローバルで最初の大規模出荷は中国科学院過程工程研究所(CAS-IPE)向けだった。ここは分子シミュレーションを中心に行っているが、LINPACK向きではなかったため、LINPACKでの性能は出せなかったものの、実性能としては高い評価を中国内で受けていた。それが、後の天河1A(Tianhe-1A)などの成果につながった。

――2011年6月のTOP500では上位に日本と中国のGPUコンピューティングスパコンがランクインしましたが、ほかのアジア地域の動きはどうでしょう?

Furney-Howe氏:オーストラリア、シンガポール、タイ、マレーシアなど、多くの国がGPUコンピューティングの活用を進めている。しかし、その国家のGDPとの兼ね合いもあり、予算に見合った規模の計算機クラスタを構築しているといったところだ。

日本は中国とGDP2位を争っているが、やはり経済競争力が高い国はそうした研究開発にも力を入れており、その結果をうまく経済に還元しているのだと思う。

――そうした計算機クラスタの代表格であるTOP500において現在、GPUコンピュータ搭載システムの大半はNVIDIA製になっていますよね

Furney-Howe氏:全体の数で見ればまだ少ないからね、もっと採用が進めばと思っているよ。NVIDIAとしてはスパコンをデスクトップで再現できるということがキャッチコピーであり、GPUは消費電力(パワー)、スペース、コスト、すべてを抑えつつパフォーマンスを向上させることができる。特にパワーは、これから先、パフォーマンスを向上させようとしても、引き上げることが許されない訳で、非常に重要な問題となる。

――そうした中、新たに発売された「Tesla M2090」はOEMのみの提供ですが、戦略的に意図してその提供形態を選んだのでしょうか? 個人でも欲しがるユーザーは多そうに思えますが?

Furney-Howe氏:戦略的なものだ。より良いものをプロユースで出すためには信頼性を重視する必要がある。その場合、部品としての提供ではなく、システムベンダの一部として組み込まれた形で提供し、信頼性を担保した結果がOEMとしての提供形態だ。

――Exaスケールの実現に向けて、ARMコアの改良版も統合したDenverなどを開発してるわけですが、これまでNVIDIAはPC向けに1つのアーキテクチャを適用して、それを他のセグメントに展開してきましたが、今後はARMコアを統合したTegraに新しいアーキテクチャが適用されて、そこから他に派生していく形になるのでしょうか?

Furney-Howe氏:Denverの詳細は言えないが、CPUとGPUの高度な統合アプローチとなる。またコアアーキテクチャが1つであるということに変わりにはないが、マーケットによってGPUに求めるニーズがあり、スパコン分野では統合アプローチ、コンシューマではディスクリート、そしてTegraはその中間に入るものと思っている。しかし、将来的にはコンシューマでも統合アプローチのニーズが高まり、結局は、いつ製品が提供されるのかの違いだけ、といったことなるかもしれない。

――それでは最後の質問です。基調講演では、2020年に2020年にExaスケールで20MWというロードマップが示されました。1Exaの実現は2018年という話があったはずですが、後ろ倒しになったのでしょうか?

Furney-Howe氏:コミュニティ全体のターゲットとしてExaスケールの実現は2018年から変わっていないが、その時点では1Exaは実現できても20MWの実現は難しいとの見方であり、2020年には20MWができるであろうという意味だ。

実際、時間と資源が無尽蔵にあれば、現状のGPUでも700~800MW、CPUでも2000MWあれば1Exaに行ける計算になる訳だが、現実は違う。そうした目標を立てて、実際に開発を行っていくことが実現への道筋となる。

基調講演で示されたExaスケールが20MWで実現されるターゲットラインを示すロードマップ。Exaスケールそのものを2018年に実現するという方針に変更はないとする

高い目標があって、それを苦労なく実現できるなら、それは高い目標ではない。1Exaはそうした意味では非常に高い目標であり、容易に解決策が出てくる世界ではない。すでに述べているが、GPUコンピューティングは電力を抑えつつ、演算性能を向上できる手法だ。それはこれから、さらに演算性能が求められる時代に、より大きな存在感を持つはずで、我々としては、それを実現するための取り組みを学術でも産業でも、問わずに連携し、進めていくつもりだ。GPUコンピューティングの未来に期待してもらいたい。