詳細説明その3 - 10年でHPCの主要な座に着いたIntel、この先の展開は?

午前中の最後のセッションは、Rajeeb Hazra氏(Photo51)による"High Performance Computing"であった。HPCは既に産業向けにも広く使われ始めており(Photo52)、ここから更に一歩進んでBig Dataから直接新しい知見を取り出そうという方向に来ている(Photo53)。色々な意味で敷居は高いものの、次第にHPCは企業に浸透しつつあり、重要なポジションを占めつつある。このIntelの普及をTop500で比較したのがこちら(Photo55)で、10年でIntelはHPCの主要なインフラの座に着いたことを改めて示した。

Photo51: Vice President兼General Manager, Technical Computing Group, DCSGのRajeeb Hazra氏

Photo52: モデリングの段階で様々なテストや確認を行なうことで、試作を飛ばせるという話。実際、部品の合い具合とか、空気抵抗などに関してはCADレベルやCFD(Computational Fluid Dynamics)でテストができてしまう。勿論安全性の確認テストもあるから、試作が完全にゼロというわけにはいかないのだが。

Photo53: 先ほどの話とも絡むが、このData Driven Modelの作り方が肝なのであって、広く利用できるModelが構築できるまで、猛烈な回数の分析のやり直しが必要であり、これが高速なHPCが必要となる大きなポイントである。

Photo54: 競合であるAMDが事実上脱落していることもあって、このマーケットにおけるIntelのMSS(Market Share Segment)は非常に高くなっている。もっとも、GPGPUが普及し始めるとこのあたりはまた変わってくるかもしれないが。

Photo55: もっとも実際のComputationは必ずしもx86が担っているわけではなく、インフラとしてのx86という感じではあるのだが。

このマーケットに対してIntelはXeonやXeon Phi、10G Ethernetなどのソリューションと、これを支えるSoftware Building Blockは既に提供している訳だが(Photo56)、この先の展開として、Fabricをチップに統合するのがキーである、という見通しが示された(Photo57)。また今後の要素技術としては、FabricやSwitchに加え、次世代StorageやMemory Stacked CPUが示された(Photo58)。実のところIntelはNVIDIAなどと競いながら2020年に実現される(実際は2022年頃にSlipしそうだが)予定のExaflopマシンの開発に取り組んでおり、これに向かって開発を進める過程の要素技術がそのままHPC向けに落ちてくると考えれば良い(Photo59)。これらを盛り込みながら、引き続きIntelはHPCにAddressするという事をアピールした。

Photo56: InfiniBandなどに対して10GbEや、今後は先ほど出てきたSiPhなどが代替になってゆく、という風に考えているのだろう。もっともIntel自身も2012年1月にQlogicのInfiniBand部門を買収して居り、引き続きInfiniBandのソリューションも出してはいるのだが。

Photo57: とは言え、100GB/sec=800Gbpsである。実際には1Tbpsクラスの帯域をチップに持たす、という方向性に向けて今後は開発を進めることを明らかにした訳だ。

Photo58: 次世代StorageはともかくMemory Stacked CPUは発熱の点で「?」と思うかもしれないが、次スライドを見ると辻褄があう。

Photo59: Exaflopでは全体の消費電力を20MWに抑える必要があり、ここから逆算すると100GFlopsが2W程度で実現できないといけない。100GFlopsというのは、今で言えば例えばXeon E5-4607(2.2GHz駆動の6コア、TDP 95W)が105.6GFlopsだから、これを2Wまで落とすことになる。2Wまで落とせばMemory Stacked CPUは楽勝であろう。

次ページBreakout session