データセンター冷却のエネルギー削減が最大の問題
サーバの消費電力はほぼ全部が熱になってしまうので、この熱を運び出さないとサーバが過熱してしまう。一般には、サーバを冷却して暖まった空気を大型の空調機で冷却して温度を下げるが、この電力がバカにならない。データセンターの総使用電力をサーバなどの情報機器が使用する総電力で割った値をPUE(Power Usage Effectiveness)というが、次に述べるような伝統的な作りのデータセンターでは、このPUEは2程度である。つまり、情報機器の消費電力と同じくらいの電力を空調のために必要としている。
上の図の左端の箱は空調機で、右側の2つの箱がサーバのラックである。サーバラックは、空気の取り入れ口が向かい合うように、互いに逆向きに設置されている。空調機で冷やした空気を床下に送り、サーバラックの空気の取り入れ口のある側(コールドアイルという)の床のスノコのようになった部分から吹き出す。この冷たい空気がラックの中を通ってサーバを冷却し、暖まった空気として排出される。このサーバの排気側が向かい合った部分をホットアイルという。
そしてホットアイルの空気は空調機に吸い込まれて冷却されて、床下に送り込まれるという循環が行われる。この空調機が吸収した熱は、クーリングタワーなどでデータセンターの外の空気中に放出することになる。この空調機のコンプレッサーを動かすのに電力がいるし、空気を動かすエアハンドラーにも電力がいる。
私たちは空気に浸かって生きているので、空気の質量を意識することはないが、1立法メートルの空気は約1kgの質量がある。大きなデータセンターの場合は、エアハンドラーは毎秒5~10tくらいの質量の空気を動かしてやる必要がある。
PUEを下げるためには、熱をサーバルームの空気中に放出するのではなく、サーバの排気側にラジエータのような水冷のドアを置いて、ここで熱を吸収する、あるいは、CPUなどのLSIを直接水冷するなどの方法も用いられるが、Facebookはオレゴン州のPrinevilleにデータセンターを設置し、冷たい外気を利用することで空調の電力を大幅に削減してPUEを下げ、電気代を節約している。オレゴン州は米国でも北の方に位置し、夏には30℃を超えることもあるが、全般に気温が低い。
この構造図の1階の部分にサーバ群が設置されており、左側の2階部分から外気を取り込む。そして温度調節し、フィルタを通してほこりなどを除去し、加湿器で湿度を調整して1階のサーバルームへと吹き降ろす。
一方、サーバを冷却して暖められた空気は中二階の部分を経由して2階の右側部分に導かれ、外へ排出される。
外気は、空気取り入れ口からミキシングルームに入る。冬季は外気の温度が-10℃以下まで下がるので、このミキシングルームで暖められたサーバの排気と混合して華氏60度(15.6℃)に温度調節を行う。サーバに送る空気はもっと冷たくても良いのであるが、あまり冷たいとサーバルームで働いている保守作業員が風邪をひいてしまう。
そして、温度調節された空気はフィルタに送られ、ほこりなどを除去する。
そしてほこりを除去した空気は加湿器で湿度を調整する。加湿器は、この写真にみられるようにパイプに付けられたノズルで水を噴霧している。そのままでは、小さな水滴が入ってしまうので、後方にスクリーンを設けて水滴を除去している。また、夏季は華氏60度より温度が上がる時があるので、この部分は冷水の噴霧で温度を調節する機能もある。
日本のように夏の湿度が高いと噴霧だけでは温湿度を調整できないが、Prinevilleは海岸側の山脈で湿度が除去され、夏はドライな暑さであるので、このような仕掛けがうまく働く。
そして、温度と湿度を調整した空気を、高効率の扇風機の集まりであるエアハンドラーで1階のサーバルームに送り込む。
2階のエアハンドラーは単に冷気を吹き降ろすだけではなく、その圧力で、サーバルームの中央通路から横方向にコールドアイルに冷気を送り込んでおり、サーバ内の冷却ファンは回転数を落とした状態で動作するという。
そして、サーバを冷却して暖められた空気はホットアイルから中二階に吸い出される。
そして、暖められた空気の一部はミクシングルームに戻されるが、大部分はこのファンでデータセンターの建屋の外に排気される。