米Sun Microsystemsは14日(現地時間)、データセンター向けの最新技術に関する同社の取り組みを紹介するイベントを米カリフォルニア州サンフランシスコ市内にあるオフィスで開催した。近年のデータセンターは処理容量の増加と集積密度の向上で消費電力と発熱が日増しに大きくなる一方で、地球環境に優しいエコロジーな「グリーンIT」実現が1つの大きな目標になるなど、相反した事象の問題解決を同時に行わなければならなくなり、IT各社がそのための技術開発でしのぎを削っている。企業のデータセンター市場を上顧客に、低消費電力/高ワークロードのUltraSPARC T1/T2を市場に投入して比較的早期からグリーンITに注力してきたSunだが、今回紹介された技術は「発熱」「収容密度」という2つの課題解決を目指したものだ。

グリーンIT時代のデータセンターに最適な冷却技術とは?

米Sun Microsystemsシステムエンジニアリング部門バイスプレジデントのAli Alasti氏は冒頭の話のなかで、データセンターの熱処理におけるSunの取り組みについて説明した。同社はUNIXハードウェアをリリースするにあたり、1980年代から共通の汎用コンポーネントを使ってサーバやワークステーションを組み上げてきた。特殊な冷却機構や実装技術を使わずに、いかにデータセンター向きのシステムを作り上げるかが20年来のSunの課題だったといえる。その取り組みの1つが空気の流れの制御だ。

「Sunのサーバシステムは、どのレンジのCPUを選択して、どのような密度でコンポーネントを配置しても動作するように設計してある。また、冷却はシンプルな仕組みにしなければならない。例えばHPのブレード製品では比較的複雑な仕組みで空気冷却を実現しているが、これが結果として電力消費のアップにつながる可能性がある」とAlasti氏は述べ、システム全体でのバランスの重要性を強調する。

またデータセンター全体の冷却の仕組みについても言及する。「データセンター内には高密度で高速・高消費電力のサーバがある一方で、ラック内の密度も低く、それほど過度な冷却を必要としないサーバもある。発熱のスイートスポットが発生するのは問題という考えもあるが、逆をいえば、そこだけを集中的に冷やせばいいというアイデアにもつながる。現状ではデータセンター全体を冷やす仕組み(冷房装置など)となっているが、これが制御できればより効率的な冷却が実現できるだろう」(Alasti氏)

イベント参加者からは水冷などの液体を使った冷却をサーバに導入できないかとの意見が挙がったが、これに対して同氏は「(保安やメンテナンスなどの理由上)データセンター内に水のような液体を持ち込みたくないという意見が多い。実際、現状で液冷を用いるケースは限られている。また液体はシステムの温度に反応して簡単に気化してしまう危険性があり、これがシステムの破壊や有毒ガスの発生など別のトラブルに発展する可能性もある」と反論し、あくまでシンプルな仕組みで空冷を実装するのが安全とのスタンスを示した。またデータセンターで発生する熱の再利用などについても質問があったが「(データセンターの設置場所にもよるが)コスト的にペイする可能性は低い」として、あくまで現時点で現実的ではないとの意見を述べる。

米Sun Microsystems システムエンジニアリング部門バイスプレジデント Ali Alasti氏

チップどうしを重ね合わせて高速チップ間通信「PxC」

続いて登場したのはSun LabsのHans Eberle氏だ。同氏はチューリッヒ工科大学(ETH Zurich)の助教授を勤めていたほか、当時シリコンバレー中心部のパロアルトにあった旧DECのシステムリサーチセンターの主席エンジニアとして働いていた人物だ。DEC時代には初の商用ATMネットワークの開発に携わったほか、ETH Zurichではインターコネクトにおけるスイッチングシステムの研究を行うなど、一貫してスイッチ関連の研究開発を推進している。今回同氏が紹介したのが、チップどうしを重ね合わせてチップ間インターコネクトを実現する「PxC(Proximity Communication)」と呼ばれるシステムだ。

米Sun LabsのHans Eberle氏

PxCのアイデアは比較的昔から議論されており、Sun Labsのサイトでも2006年付けの論文で大きく紹介されているなど、ここ数年ほどかけて研究が進められているようだ。PxCはチップのダイどうしを重ね合わせ、一方のチップAの受信装置にもう片方のチップBの送信装置を、また逆にチップAの送信装置にチップBの受信装置を重ねるといった形で、互い違いに複数のチップを重ねていくことで、基板への配線なしにチップ間通信を行えるというものだ。その結果、従来型のチップ間I/Oと比較して消費電力と帯域密度で大きなアドバンテージを得られるという。Eberle氏はPxCのメリットとして「少ないコンポーネント、少ない配線、低消費電力、高信頼性、高パフォーマンス、低レイテンシ、内部ブロック要素のなさ」などを列挙している。

スーパーコンピュータやクラスタ、グリッドなど、大量のシステム装置をインターコネクトで結びつけてより高速な1つのシステム(あるいはクラウド)を実現しようというアイデアは、ここ最近特に広がりつつある。プロセッサがより高速になり、バックエンドの帯域に対する要求が増えることで、こうした高速なチップ間通信やインターコネクトの技術に対する需要が高まっている。チップ間通信、あるいはプロセッサコア間の通信が1つのボトルネックとなりつつあるなか、PxCは1つの回答となるかもしれない。

「今日紹介するPxCのプロトタイプはあくまでサンプルで、現状はパフォーマンス的にはあまり期待できるものではない」とEberle氏は説明する。将来的な用途としてはデータセンターのバックボーン、ブレードシステムにおけるインターコネクト、ATCAシャーシのアグリゲーション(収束)、クラスタシステムのインターコネクト、そしてシステム本体のインターコネクトなど、比較的高密度な実装を要求されるシステムでスペースを節約するのに役立つと同氏はみているようだ。また昨今のサーバ統合やデータセンターの仮想化などのトレンドが広帯域のバックボーンに対する需要を高め、こうした仕組みを必要とするようになるとの見解も示している。

PxCの仕組み。チップどうしの送受信装置を重ね合わせてチップ間通信を実現する

従来型のチップ間I/Oとのメリット比較

従来型チップ間接続との構成比較。PxCは単一ステージでシンプルとなっている

PxCプロトタイプでの実装例。チップ間の接続にはProximity Bridgeと呼ばれる板を用意する

PxCを使ってシステムのスケールアップを行う場合の配線例

プロトタイプの実装基板。チップ上面に配置されている灰色の板がProximity Bridge