仮想化の普及により目立ち始めた「予想外のトラブル」

日本IBM システムx事業部 事業開発 アドバイザリーITスペシャリスト 湊真吾氏

サーバ仮想化技術が成熟し、仮想化環境向けに最適化されたハードウェアが数多く出荷されるようになった。多くの企業でサーバ仮想化への取り組みが活発化しているが、そんな中で、サーバ仮想化にまつわる予想外のトラブルも目立ち始めている。

「例えば、メンテナンス時のことがあります。仮想化したサーバを数十台運用しているような環境で、メンテナンス時に物理サーバを停止させようと、仮想サーバを別の物理サーバへ移動すると、その作業に一晩を要するケースがあります。これでは『移動の時間がメンテナンス作業の時間を圧迫する。当然、業務にも支障がでかねない』と頭を抱えることになるでしょう」

そう明かすのは、日本IBMのシステムx事業部でアドバイザリーITスペシャリストを務める湊真吾氏だ。湊氏によると、このようなケースは、ハイパーバイザの特性への理解不足や、仮想サーバの移動用として用意してあったネットワーク環境がギガビットイーサネットで構成され十分な帯域を確保できていなかったことが主なトラブル要因だ。仮想サーバを稼働させたまま別のハードウェアに移動(VMware VMotionやHyper-V Live Migration)させる際、数台程度であれば、ギガビットイーサネットの環境で問題はない。だが、数十台の仮想サーバを同時に移動しようとすると、ギガビットでは足りず、10ギガビットクラスのネットワーク環境が必要になってくるケースが少なくないという。

「運用方法やトラブル対応時を予想してサーバ環境を設計することが望ましいのですが、限定的な範囲で行った仮想化の試験環境がうまく動作したという理由で、それをそのまま導入、展開してしまっている場合があります。ただ、仮想化環境を本格的に運用する場合には、全体としての姿をしっかりと考慮しておかなければ、物理サーバを多数抱えてしまう結果になったり、ネットワーク機器を追加導入して再設計することになったりと、無駄な投資・時間・労力が発生することになります。実際、ネットワーク環境をギガビットから10ギガビットにするには、サーバ側が10ギガビットに対応している必要があり、投資対効果を高める設計は当初とは異なった解、設計となることもあります」(湊氏)

サーバ仮想化の大きな目的は、サーバ統合による管理効率や業務効率の向上だ。仮想化によって、新たなトラブルが発生していては本末転倒になってしまう。

盲点は「コスト」「ネットワーク」「信頼性」

では、こうした仮想化にまつわる"盲点"にはどんなものがあり、どうすれば見過ごしを防ぐことができるのか。湊氏はまず、仮想化案件で後々問題になるポイントとして、コスト、ネットワーク、信頼性の3つがあると説明する。

コストというのは、安価なサーバを複数台並べるよりも、高性能な大型サーバ1台で処理するほうが仮想サーバあたりの単価は下がり、コストメリットの高い場合があるということだ。クラウドコンピューティング企業に代表されるように、サーバ仮想化では、安価なサーバを複数台使ってパフォーマンスとスケーラビリティを高めるという方法を想像しがちだ。しかし、サーバやCPUの数が増えれば、その分ソフトウェアライセンスや保守費用も増加することになる。トータルコストを考えると、大型サーバを入れた方が安くあがることが少なくないのだ。

もっとも、ここで問題になるのが、ハードウェアの構成である。IBMの調べによると、多くの企業におけるサーバのCPU稼働率は、仮想化していないサーバの場合には5-10%程度、しかも同時にピークを迎えるのは4台に1台程度である。これらのサーバを仮想化するのだから、多くの仮想サーバをまとめることができる能力をCPUとしては持っている。しかし、アプリケーションのメモリ使用量は年々増加しているという背景があり、「CPUに余力があっても、メモリがボトルネックとなってしまい、サーバのスペックを十分に引き出せていない」(湊氏)というのである。

こうした事情を踏まえると、トータルコストを抑えるための大きなポイントの1つは、各サーバに対していかに多くのメモリを搭載できるかという点になる。CPUの能力ばかりに目をとられてしまうと、メモリが不足して期待していたパフォーマンスが出ず、結局はスケールアウトというかたちでサーバ台数を増やすということになりかねない。現代のOS、アプリケーションに必要なメモリ容量をいかに確保するか。仮想化導入の際には、この点を強く意識しなければならないようだ。

ネットワークについては、上で触れたような仮想サーバの移動時に必要とされるネットワーク帯域のほか、移動中にセキュリティを確保する仕組みがあるかどうかなどが盲点になりやすい。

「例えば、テスト的に使用している場合には、ネットワーク設計を簡単に済ませることも多いでしょう。しかし、本格的な運用となれば、これまで個々のサーバに対して行ってきたネットワークのセキュリティ面を検討しなくてはなりません。個々の仮想サーバに対してネットワーク上に必要最小限の"穴"を空けておくことが必要ですが、仮想サーバが移動する可能性があるところ全てに穴が開けっ放しの状態ではセキュリティホールになる可能性があるということです。その場合は、ネットワークスイッチなどを使って、通常は穴を閉じておき、移動後に限って穴を開けるといった工夫が必要になります」

こうした背景から、湊氏は、10ギガビットイーサネットに対応しており、移動に際してネットワーク上の穴を自動的に開閉する、つまりは設定を移動させることができる機能を持つスイッチ製品にも注目すべきと提案する。

最後の信頼性とは、CPUやメモリの信頼性のことだ。PCやサーバのハードウェアがコモディティ化したことで「PCと同じで、サーバはどれでも一緒」と考える向きは少なくない。だが、湊氏によると「実は、メモリのアクセス速度1つとっても大きな違いがあります。特にサーバ仮想化では、どれだけメモリを搭載できるかに注目して、メモリのアクセス速度が落ちるケースがあることを見逃しがちです」と話す。

例えば、インテルのXeon5600番台などの2CPU構成のサーバでは、サーバを仮想化する際にメモリモジュールを多く搭載すると、その分、メモリのアクセス速度は落ちてしまっていたという。一方、Xeon 7500番台以降は、メモリ搭載量を増やしても、1066MHzのまま動作するアーキテクチャが採用されている。ただし、その裏には1CPUあたりで対応できるメモリ容量に制約があり、また転送開始までの遅延(レイテンシ)にも気をつかう必要がある。この制約をいかにして取り払うかという点にベンダー各社は苦心しているという。この問題がどのような技術で解決され、どこまでの信頼性と性能が実現されているのか。サーバ導入の際にはこの点を確認すべきだろう。

サーバ仮想化を「ユーザー目線」で評価するセミナー

日本IBMに約20年在職する湊氏だが、キャリア前半の10年間は、IBM社外への出向やお客様と共にシステム仕様を策定するエンジニアというかたちで、ユーザーサイドからIBMの製品選択にかかわってきた。仮想化にまつわる、コスト、ネットワーク、信頼性といった"盲点"も、そうしたキャリアを下地にしたうえで提案しているものだ。

「ユーザーサイドから見れば、コストにシビアになるのは当然のことです。クラウドを考えるときも、社外リソースを利用するか、社内で構築するかでギリギリの判断をしています。ただ、社内で構築すると判断してからは、仮想環境を構築すること自体が目的化するためか、不思議と今後どう構築、利用すればメリットが最大化できるかは気にしなくなります。サーバ統合やサーバ仮想化では、それが盲点になり、予想外のトラブルにつながっていると感じます」(湊氏)

日本IBMでは、こうしたサーバ仮想化にまつわる盲点を含め、同社のeX5サーバシリーズがユーザー企業に対し、どのようなソリューションを提供できるかを紹介するセミナー『ジャー ナル ITサミット 2010 仮想化セミナー』を12月8日に開催する。湊氏も『VM単価を下げつつ、信頼性や運用性を向上させるeX5』と題した講演を行う予定で、技術の詳細に加え、具体的なコストメリットやトラブルの実例と解決策などを解説する予定である。サーバ仮想化を"成功"に導くうえで、大きな助けとなるはずだ。