大規模データの分散処理には欠かせない"Hadoop"。Apacheプロジェクトのオープンソースとして、日々改良が重ねられるこのフレームワークは、もはや欠かすことができない。まだ創生期にあるといは言え、その価値はITの世界では広く認識されはじめている。もはや"導入するか、しないか?"という問いは過去のものになりつつあるのだ。そんなHadoopにも課題がないわけではない。

Hadoop活用を阻む3つの課題とはなにか

Hadoopやビッグデータと近年話題に上がることの多い2つのキーワードだが、Hadoopを活用するにあたっては、さまざまな課題に直面することになる。「最大のネックとなるのはデータの移動時間」である。従来のアナリティクスは、基幹DBなどのデータソースから分析基盤へデータを移動させることで行われてきた。

多くの企業・組織における、Hadoopの活用を阻む3つの課題

昨今、このやり方は限界に達しているというのだ。分析対象のデータが数百ギガバイト、場合によっては数テラバイトといった規模に大容量化しており、移動しようとすると数時間から数日といった単位の時間がかかってしまう。迅速な意思決定が求められる現在のビジネスは、それを待ってはくれない。これを解決するには抜本的に改める必要がある。具体的には、・・・

続きはホワイトペーパーで>>

「すべてのユーザーにHadoopの恩恵を - Hadoopを意識させないアナリティクスを実現」ホワイトペーパー無償配布中

Hadoopの分散処理フレームワークに加え、独自のインメモリ分散処理技術をベースとしたエンタープライズ・アナリティクス・アーキテクチャと、グラフィカルで対話的なインターフェイスにより、利活用しやすいユーザー・エクスペリエンスを提供する。

Hadoopをご検討の方は、この機会にぜひご一読をお勧めします。

⇒ホワイトペーパーダウンロード

(マイナビニュース広告企画)

[PR]提供:ホワイトペーパー