4月14日から17日までの4日間、米カリフォルニア州サンタクララにおいて、MySQL Conference and Expo(以下、MySQLカンファレンス)が開催された。MySQL関連の最大のイベントである。セッションは有料で、日本円で10万円を超える金額にもかかわらず、参加登録者数は2,000人近くに達し※、日本からも多くのユーザーが参加していた。

※ セッション参加のできない、展示会場のみの申し込み者も含む。

今回のMySQLカンファレンスでは、複数データセンターにまたがってMySQLを活用するような大規模事例、ペタバイト級の規模に挑戦する事例、MySQL Clusterの事例、Heartbeat + DRBDによる高可用性の事例など、さまざまな事例が発表された。とくにFacebookは、1万台のWebサーバ、800台のキャッシュサーバ(memcached)、そして1,800台のMySQLサーバという超大規模環境となっている。筆者はMySQLの社員でもあるため内容自体は以前から知っていたのだが、今回のMySQLカンファレンスで初めてFacebookのアーキテクチャを知ったという方も多いことだろう。そこで本稿ではFacebookの事例を中心に、彼らがMySQLの大規模環境をどのように構築していって、どのような苦労があったのかを紹介したい。

キーノート会場。広い会場に立ち見客もいて、アメリカでのMySQL人気の高さを物語っていた