Hewlett Packard Enterprise(HPE)が3年前に発表した次世代コンピューティング構想「The Machine」が少しずつ現実に近づいている。今年5月、HPEは160TBという最大の単一メモリシステムの実証実験に成功したことを発表した。6月8日まで米ラスベガスで開催された年次イベント「HPE Discover Las Vegas 2017」でプロジェクトを率いるHewlett Packard Labsのチーフアーキテクトを務めるKirk Bresniker氏がThe Machineの背景から現状、今後の計画について説明した。

Hewlett Packard Enterprise フェロー/Hewlett Packard Labsシステム研究部門チーフアーキテクト Kirk Bresniker氏

ムーアの法則が終わる、その後の世界は?

The Machineは、プロセッサを中心にメモリが直接接続されている現在のコンピューティング・アーキテクチャ(プロセッサ主導)から、「メモリ主導コンピューティング」にシフトすることを提唱する。

具体的には、メモリのプールを構築し、プロセッサがアクセスして必要な時に必要なメモリリソースを使うというアーキテクチャで、メモリ/ストレージ/プロセッサ間の非効率を排除できる。不揮発性メモリ、フォトニクス技術を採用したインターコネクトにより、高速性を実現する。

そもそも、なぜThe Machineが必要なのだろうか? Bresniker氏は2つの理由を上げる。1つはコンピュータの進化を支えてきた『ムーアの法則』の終わり、もう1つはデータの爆発とリアルタイム化だ。

ムーアの法則は半導体の集積回路は18~24カ月で2倍になるという理論だが、Bresniker氏はトランジスタ数、シングルスレッドの性能、動作周波数、消費電力、コア数の推移を示したグラフを見せながら、「これ以上の微細化は難しくなってきた」と指摘する。

転機は2005年だ。シングルスレッドの性能、動作周波数、消費電力が増えなくなり、コアの数のみが増え始めた。マルチコア化だ。「小型化、高速化、そして消費電力を抑え、価格も下がるというパターンからの物理的シフトが2005年頃に起こっている」とBresniker氏は言う。その後、「コアを増やすというアドバンテージすら収束を迎えつつある」と続ける。

2つ目のデータの増加はいうまでもないトレンドだ。Bresniker氏は、2年ごとにこれまで生成したデータ量を倍増させているというIDCのデータを紹介する。それだけではなく、データから洞察を得る時間はかけられなくなっている。「Systems of Recordの時代はPCに座って入力していたが、ソーシャルネットワーク、スマートフォンなどのモバイルのトレンドがSystem of Engagementにつながり、さらにはIoTによりモノが自動的にデータを生成するSystem of Actionが誕生する。クラウド、エッジコンピューティングとそれらを支える環境も整いつつある」とエンタープライズシステムの流れを解説した。

現状のコンピューティングはこれ以上スケールできず、データは増える一方だ

「継続して情報処理をスケールするにはどうすればよいか――メモリ主導コンピューティングがHPEの回答だ」とBresniker氏。

メモリ主導コンピューティングでは、データを中心にさまざまなコンピューテーションのアプローチが接続するが、以下の図のようにx86、ARM、FPGA、GPU、DSPなどに加えて、クアンタム、フォトニックコンピューティングなど新しいアプローチも利用できる。「大規模なメモリグループで拡張性、性能、電力を供給できる」とBresniker氏はメリットを説明する。

プロセッサ主導(左)からメモリ主導(右)へ

キーテクノロジーは「不揮発性メモリ」と「フォトニック

The Machineは2014年に発表され、その後着実に開発が進んでおり、2016年11月にはプロトタイプの動作に成功したことが報告された。コンピュートノードが共有のファブリック・アタッチド・メモリのプールを構築、これはHPEの光伝送フォトニックエンジン「X1」モジュールを含むフォトニクスと光通信リンクでアクセスできるもので、カスタマイズしたSoC上で最適化したLinux OSを動かした。

そして今年5月、160TBの共有メモリを相互接続した40の物理ノードをまたいで分散するというプロトタイプシステムを構築し、動かすことに成功した。

HPE DiscoverではThe Machineのブレードのモックを展示していた

Bresniker氏によると、メモリ主導コンピューティングの特徴は4つあるという。1つ目は不揮発性メモリで、「安定した環境でメモリとストレージを組み合わせ、処理速度を上げ、電力効率を改善できる」(Bresniker氏)。2つ目はフォトニクス技術を用いた高速なメモリファブリックだ。「マイクロ秒では遅すぎる。ナノ秒でアクセスする必要がある」という。3つ目はタスク固有の処理で、x86など汎用のものからDSPなど特定のタスクでも処理を最適化できる点だ。4つ目はソフトウェアで、「ソフトウェア環境の効率が改善し、全く新しいアプローチも可能になる」と説明した。