既報の通り、インテルは4月9日に都内で記者説明会を開催し、第2世代Xeon Scalableプロセッサをはじめとするサーバ向け製品を改めて紹介した。この内容を簡単にお伝えしたい。
まず「改めて」というのは、今回の内容は米国時間の4月2日にIntelが開催した「DATA-CENTRIC INNOVATION DAY」と呼ばれるイベントで発表済みからだ。これを日本メディア向けに説明するというのが趣旨となる。
冒頭で挨拶に立った鈴木国正社長(Photo01)は、2022年までのデータ通信量の増加予測を示しながら、日本もまだ伸びる可能性が十分で(Photo02)、大容量のデータ処理や通信といった用途に対して、今回発表された製品群が効果的であるとした。
ディープラーニングで前世代比28倍
続いて米国本社より来日したJason L. Grebe氏が各製品の詳細を紹介した。まずは第2世代Xeon Scalableプロセッサである(Photo04)。これはCascade Lakeという名前で開発されていた製品で、基本的には先代のSkylake-SPと同じく14nm++プロセスで製造される。
前世代との違いとしては次の3つが主に挙げられる。
- Spectre Variant 2/3/3a/4及びL1TFに対応した脆弱性対応がハードウェアの形で実装された
- Intel DL Boostを搭載
- Intel Optane DC Persistent Memoryに対応
このうち、最初の脆弱性対応は良いとして、続くIntel DL Boostだが、これはAVX512のNeural Network拡張であるAVX512_VNNI(Vector Neural Network Instruction)を指す。
AVX512_VNNIは、これまでKnight MillベースのXeon Phiでのみのサポートだったが、Cascade LakeでXeon Scalableとして正式に対応した形だ。
3つ目のOptane DC Persistent Memoryへの対応は、従来から説明されていたことで、これにより最大512GBのDIMMを利用できるようになる。したがって、理論上は、ソケットあたり最大4.5TBのメモリ空間を実現する。
このCascade LakeをMCM構造で2ダイ搭載したものが、2018年に予告されていたCascade Lake AP(Advanced Performance)で、これも今回Xeon Platinum 9200シリーズとして発表された(Photo05)。
コア数は合計で56コア、1ソケットあたり112スレッドとなる。ただしCascade Lakeは、8ソケットまでの対応なのだが、Cascade Lake APでは2ソケットまでという制約がある。
パッケージも倍とは言わないまでも、かなり大型化している(Photo06~07)。ちなみにCascade Lakeのパッケージサイズは、76.0mm×56.5mmとされているので、恐らくCascade Lake APは76.0mm×76.0mmと想像できる。
性能に関しては、Deep Learning関連(CafeeでResnet-50を利用)の場合、Xeon Platinum 8100比で、Xeon Platinum 8200が14倍、Xeon Platinum 9200が28倍の向上を実現したという(Photo08)。さらにNFVなどのネットワーク利用時に最大1.76倍のワークロードパフォーマンスを達成したとしている(Photo09)。
Cascade LakeとCascade Lake APのスペックを表1(すでに出荷開始した製品)と表2(今後出荷予定の製品)にまとめた。なお、出荷予定の製品も2019年第2四半期に出荷を開始するとのことで、遠からず追加されるものと思われる。