ポストムーアのシンポジウムでは、東大の工藤知宏 教授、九大の井上弘士 教授、慶応大の天野英晴 教授の3人がポストムーアのアーキテクチャについて発表を行った。

工藤教授のポストムーアのアーキテクチャ

工藤先生のポストムーアへのアプローチは、フローセントリックコンピューティングという処理方式である。

ポストムーアのアプローチを発表する東大の工藤教授

フローセントリックコンピューティングでは、リアルタイムに入ってくるビッグデータを、データフロー的にパイプラインで処理を行う。そのためのハードウェアとしては汎用のサーバ、専用ハードウェアやストレージを超広帯域の光ネットワークで接続する。

そして、データセンター全体を1つのフローOSで制御し、データの流れを優先した処理を行い、リアルタイム性を保証する。

データの流れを優先する処理を行うフローセントリックコンピューティング (これ以降の図の出典は、工藤教授の発表スライド)

前の図ではパイプライン的に処理装置が並んでいるように書かれているが、実際のデータセンターは、中央にスイッチがあり、処理とサーバの対応、サーバとストレージの対応、データフローの流れなどは自由に変更できる構造となっている。

ハードウェア的にはサーバやストレージを中央の光スイッチによるネットワークで結合したものを使う

このスイッチは産総研と共同研究している光波長多重のスイッチを用いる。次の図は、松岡先生の発表でも用いられたもので、説明は省略する。

中央の光スイッチには産総研で開発している光波長多重のスイッチを用いる

光波長多重の技術をデータセンターに適用できれば、超広帯域のネットワークができるが、現在の計算機システムはI/Oが遅いことを前提に造られており、CPUなどのオンチップの処理装置とI/Oのつなぎ方を根本的に考え直す必要があるという。

メモリキューブとCPU、GPU、DSPなどがインタポーザに搭載されたノード。光多重の多波長の光源(Comb Source)も見える

フローセントリックコンピューティングではデータ転送とデータ処理を密に結合して無駄を省いて処理を効率化する。そして、CPU/GPU/FPGAなどの計算装置と各種の記憶装置を個々のユニットに分解(Disaggregate)して高速ネットワークで必要に応じて組み合わせ、処理に必要なハードウェアをアプリケーションに占有させる。これにより、処理性能が保証されリアルタイム処理ができ、共用に伴って発生するムダが省けるようになるという。

CPU/GPU/FPGAや各種メモリをDisaggregateし、必要に応じてアプリに占有させる。これにより、性能が保証され、共用のムダが省ける

そして、フローOSがデータ処理機能(DPF)とそれを実行するハードウェア(DPC)の割り当てを行い、データの流れを制御する。

データフローグラフのDPFに対応して実行資源DPCを割り当て、フローOSがハードウェアのスケジューリングを行う

データセンターのすべての機器は1つのフローOSで一括管理し、電力や性能保証を考えて全体最適化する。そして、データプレーンとコントロールプレーンを分離し、データプレーンはアプリに特化したライブラリ型OSで制御する。

データセンター全体を1つのフローOSで制御し、全体最適化を行い、ムダを省く。そして、データプレーンとコントロールプレーンを分離して制御する

ポストムーアではゼロから考え直した新しいアーキテクチャが必要になる。しかし、汎用の高性能コンピュータの実現は困難で、さまざまな計算装置を適材適所で組み合わせるヘテロな構成にならざるを得ないという。そして、光多重の通信をデータセンターに持ち込むことで、ポストムーアの壁を破るという。また、超広帯域の光ネットワークを使うフローセントリックコンピューティングでリアルタイムの処理が可能になるという。

ポストムーアでは各種の処理装置を組み合わせるヘテロな処理系となる。これらの処理装置やストレージを超広帯域の光ネットワークで接続する。そして、フローセントリックなコンピューティングを行うことで、ムダを省き、リアルタイム処理ができる性能保証した処理系ができる