COOL Chipsの締めくくりは、例年パネルディスカッションである。今回のパネルは、イリノイ大学のTorrellas教授がオーガナイザーとなり"Multi-Core and Many-Core:the 5 to 10 Year View"というタイトルで行われた。

パネリストは、早稲田大学の笠原教授、ルネサス テクノロジの服部氏、富士通の安藤氏、TOPS Systems社の松本氏、ARMのJohn Goodacre氏、IntelのTicky Thakkar氏、そして、ノースカロライナ州立大学のYan Solihin准教授の7名である。

パネルディスカッションの趣旨を説明するToprrellas教授(左端)とパネリスト達

Torrellas教授の趣旨説明に続き、パネリストから各自のポジションの説明が行われた。Family Nameのアルファベット順ということで、まず、安藤氏が、Top500の傾向から見て、10年後には1Exa Flopsのスパコンが必要となるが、この時期に使用可能となる22nmプロセスを使ったとしても、1Exa Flopsを実現するには演算器だけで16MWを必要とする。また、CPUチップの消費電力合計はこの10倍程度、システム全体では更に10倍で原発1基分となってしまう。従って、メニーコアは必須であるがそれだけではダメで、スイッチングに伴うアクティブエネルギーの低減とアーキテクチャ的なエネルギー効率改善が必須であると述べた。

早稲田の笠原教授は、基調講演で述べたマルチコア用の高並列化と電力制御が可能なコンパイラの実績を示し、1024コア程度までは、このコンパイラで問題なく並列化できると述べ、Mooreの法則に従ってコア数が増加するのに障害は無いと述べた。また、松本氏は同社のTOPSpeedアーキテクチャを説明し、ヘテロなコアの集積が重要と主張した。

Solihin准教授は、コアとキャッシュ量のトレードオフの式を示し、コアだけを増やしてもメモリバンド幅が制約になり性能は上がらない。両者のバランスをとることが重要である。また、キャッシュ量が増えるとミスが減り必要なメモリバンド幅が減少するので、面積あたりの容量の点で、キャッシュにDRAMを使用することが効果的と述べた。

ルネサスの服部氏、ARMのGoodacre氏、IntelのThakkar氏等は、会社の方針もあるのか、比較的、そつの無い一般的な意見であった。

その後、会場からの質問に対して、パネリストが答えて議論するというパネルディスカッションに移った。テクノロジ関係では、現在はCMOSが主流であるが5~10年先を見た時に、これに変わって更に省電力を実現できるようなテクノロジが出てくるのかという質問が出た。これ関しては、安藤氏が、現状では、CMOSに取って変われるようなテクノロジは見当たらないと回答していた。

また、Solihin准教授がメモリバンド幅の問題を指摘したことに関して、メモリバンド幅の改善はどうするのかという質問が出た。安藤氏は、メモリバンド幅は重要であるが、プロセサコアはメモリはバンド幅より安いので処理性能は余っても良い、メモリバンド幅を使い切る方が重要という考え方を述べ、かつ、メモリバンド幅の改善に関しては、20GbpsのI/Oを1024チャネル搭載したNECの光I/Oインタフェースの試作を例として挙げ、メモリバンド幅の改善の努力が行われていることを述べた。また、Solihin准教授は3次元のチップスタックやキャッシのDRAM化などによるキャッシュ容量の増加の重要性を指摘していた。

また、COOL Chipsの創設者で実行委員会のチェアである慶応大学の中村教授から、マルチコアやSIMDで並列に処理できる部分の性能を改善するのは良いが、Amdahlの法則でシーケンシャルにしか処理できない部分が性能向上の制約になるという指摘があった。これは原理的には正しい指摘であるが、笠原教授は、シーケンシャルな部分でも性能上問題になるのは、一回だけ実行されるコードではなく、シーケンシャルなループである。このようなループはマルチコアによる並列化が可能であると回答していた。

10年先を見た場合、ハードとソフトの開発コスト比率はどうなるのかという質問に対しては、パネリスト全員がソフトのコストが大きくなるという意見であったが、服部氏は、一番重要なのは、それぞれの機能をハードでやるのかソフトでやるのかを切り分けるシステムエンジニアリングであるという意見を述べていた。

そしてマイクロソフトの人から、私がセールスマンになったとして、メニーコアの時代に、私の母でも買ってくれるようなキラーアプリは何かと言う質問が出された。これに対しては、松本氏からヘテロジニアスメニーコアにより各種のメディア処理の性能を画期的に引き上げ、ユーザインタフェースを改善できるという可能性が指摘された。また、Torrellas教授から、私はパネリストではないがと前置きして、メニーコアのアプリケーションとして、自然言語の理解などの新たな処理が可能となるとの見通しが示された。また、Goodacre氏は画像認識による衝突回避などのアプリが重要、安藤氏やThakker氏は、マイクロソフトのGordon Bell氏がやっている研究を引き合いに出し、オーグメンテッドメモリ(人間の記憶を補助する機構)などのユーザを目立たない形で補助するようなアプリケーションが重要になるのではないかと述べていた。

集積度の向上に対して集積される機能が向上し、設計よりも設計の検証の方が多くの工数、費用を必要としているが、何か手はないのかという質問が出された。しかし、各社ともに、標準的に行われている部品ごとにテストを行い、それらを組み合わせることにより全体の信頼度を高めるというような手法をとっているという回答であり、特別に上手い手は無いようである。

また、マルチコアで低電力でスループットを改善できるので、シングルコアの性能改善は必要ないのでは無いかという質問に関しては、安藤氏は、Oracleなどのビジネスソフトのライセンスはコア数比例で、かつ、単価はプロセサよりも高いので、コア数を増やすと損になる。また、メモリやファイルなどは処理量に応じて必要になるので、小規模コアで複数か、強力コアで1コアかとは無関係であり、トータルコストに対するプロセサの影響は薄められると述べていた。

また、Reconfigureはどうなるのかと言う質問に対しては、安藤氏は、FPGAは配線とスイッチの塊であり、エネルギー効率はASICやプロセサに較べて10倍悪い。しかし、チップの開発が不要というメリットがあり、得失は用途によると指摘した。また、松本氏や服部氏もReconfigure のエネルギー効率の悪さを指摘し、主要な用途に関しては専用のユニットを追加した方が良いという見解を述べた。

プログラムチェアの内山氏から、消費電力の低減にはボルテージスケーリング(電源電圧の低減)が重要であるが、ボルテージスケーリングは今後どうなるのかという質問が出された。これに対して安藤氏は、現在のLSIは1.0V程度の信号電圧であるが、神経は150mV程度の信号レベルで動作しており、低電圧化は進むと思うが、常温では、この程度が動作電圧の低減の限界ではないかと回答していた。

ヘテロジニアスマルチコアに関して、ソフトウエアの開発の再利用性に関する質問が出された。これに対して笠原教授は、国産6社とマルチコアのAPIを検討しており、コンパイラで自動的にヘテロマルチに対応するコードを生成することが可能になっており、このAPI仕様に従っているアクセラレータであれば問題はないと述べた。また、ARMのGoodacre氏も同社の開発システムはヘテロマルチに対応していると述べていた。

以上のように、マルチコア、メニーコアが取りうる唯一の道であることは全パネリストの意見が一致した。また、色々な問題が全て解決されているわけではないが、笠原教授の意見のように、マルチコアのソフトウェアの開発に関してもコンパイラが性能、電力制御を最適化できる可能性が示され、ヘテロジニアスマルチコアのソフトウェア開発に関しても光明が見えつつあるという感じであった。一方、特別講演でSkadron准教授が指摘した電力密度の問題、安藤氏が指摘したアクティブエネルギーの問題やSolihin准教授の指摘したメモリバンド幅の問題など、本質的で、解決の難しい問題が存在することが確認されたパネルディスカッションであった。