ビジネスを変革するためのキーワードとしてすっかり定着した感がある「ビッグデータ」。さらに最近では、それに関連した職種を指す「データサイエンティスト」という言葉も頻繁に耳にするようになってきた。
では、その背景には、どのような環境の変化があり、また企業には今後どういった対応が迫られているのか──。昨今のビジネスそしてテクノロジーの潮流を踏まえながら、ITR リサーチ統括ディレクター/シニア・アナリスト、生熊清司氏に持論を展開してもらった。
データサイエンティスト企画 レポート
「データサイエンティスト」をテーマにした取材レポートを以下にも掲載しております。併せてご覧ください。
昔からあった「ビッグデータ」
ITR リサーチ統括ディレクター/シニア・アナリスト 生熊清司氏 |
生熊氏によると、日本でビッグデータが話題になり始めたのは2010年頃だったという。
「リーマンショック以降、多くの企業ではコスト削減が史上命題となりました。プロセスを最適化してなるべく無駄を省こうというのがビジネス全体の流れだったのです。しかしながら“絞りに絞った”結果、コスト削減も限界に突き当たりました。従業員もたくさんリストラしてしまいましたし、このまま経営を続けていても企業が縮小傾向を強めるばかりという状況に陥ってしまったのです。そこで、コストカットの次は収益を拡大することが企業にとっての最重要テーマとなり、そのためにITを積極的に活用しなければという気運が高まったわけです。結果、情報やデータを活用して、『顧客により多くの商品を売ろう』、『新たな顧客を開拓しよう』と模索を始めたのが、ビッグデータに注目が集まるきっかけだったと言えるでしょう」(生熊氏)
こうした企業側のニーズと合わせて、IT機器のハードウェアの性能が大幅に向上したことから、過去には不可能だった「大容量データの取り扱いが可能になった」という“シーズ”もまた、ビッグデータの活性化要因となっているのである。
ただし生熊氏は、「ビッグデータ自体は決して新しいものではない」と指摘する。
「ビッグデータは急に生まれてきたわけではなく、過去にもその時代ごとにずっと存在していたのです。変わったのはビッグデータの指す“ビッグ”のボリュームサイズです。例えば、『TB(テラ・バイト)』という単位は、かつては大企業でもそうそう手の出せない途方も無い容量でした。当時は、明確な言葉こそないものの、暗黙のうちにTBクラスのデータをビッグデータとみなしていたのです」
つまりは、「今の技術では扱うのが少し難しいと感じる程度のサイズ」こそ、ビッグデータと呼ぶにふさわしいということなのだ。