近年、私たちが直面している大きな課題を解決するには、社会や企業レベルで自由に使えるツールがいかに不十分であるかということを私は強く感じています。パンデミック、気候変動、社会的不公平など、さまざまな問題があります。また、最近では、サプライチェーンの混乱により、主要な部品や材料が世界的に不足しています。この課題を解決するためには、私たちが互いに協力して、強固な融合による解決策(Interwoven solutions)を生み出す以外に選択肢はありません。
私たちは、新型コロナウイルスのワクチン開発において、製薬会社がジョイントベンチャーを設立し、学術機関と提携して開発を加速させるということが、世界の舞台で起こっているのを目の当たりにしました。また、個人投資家が団結してヘッジファンドを倒し、ゲームストップを空売りしたのもその一例です。そして、The Economist誌が報じたオープンソースの情報コミュニティでは、学者、活動家、ジャーナリスト、データサイエンティストがより大きな価値のために協働している様子が見られます。
このような相互に融合したアプローチは、デジタル・イノベーションを加速する触媒であり、相互接続された世界における進むべき道なのです。APIエコノミーは全く新しい可能性を開きます。2022年のトレンドでは、強固な融合を可能にするデータとアナリティクスの5つのトレンドを紹介します。
1.コラボレーションマイニングの出現
新型コロナウイルス感染症の世界的な流行の影響で、コラボレーションとBIは切っても切れない関係になりました。在宅勤務への移行により、TeamsやSlack、Zoomなどのワークストリームや生産性アプリにBIをすばやく組み込むことが、多くの企業にとって不可欠となりました。また、物理的な空間に縛られなくなったことで、外部の関係者とのコラボレーションの機会も増えました。PwCの調査によると、最高経営責任者の5人中ほぼ4人が、新型コロナウイルス感染症の世界的流行後も、リモートでのコラボレーションが続くと確信しています。
しかし、インサイトを得たうえで一連の業務の最後にコラボレーションすること以外にも、重要な課題はあります。派生的なデータの生成後に探索と議論を行い、すぐに行動に移せるようなインサイトに到達するまで、早い段階でコラボレーションを始める必要があります。コラボレーションほどデータのサイロ化を防ぐものはありません。コラボレーションが分析の業務全体に拡がっていくと、その仕組みに目を向けられるようになり、データやネットワーク、プロセスに関わるコラボレーションの方法を改善していくことができるようになります。つまり、データやプロセスの抽出を学んできたように、「コラボレーションマイニング」の出現を目の当たりにすることになります。これにより、意思決定の追跡と重要な監査性を得ることができ、複数の関係者との信頼関係を高めることができます。
2.ダッシュボードの終結と発展
ここ最近、ダッシュボードの終結についてよく耳にします。KPIを表示し、データを可視化することは、誰にでもできます。
しかし、単なるKPIの監視と、インタラクティブで優れた拡張アナリティクスアプリケーションを用いた詳細な調査分析とでは大きな違いがあります。方向性を示す発見を明らかにすることが、これまで以上に重要になっています。
では、ダッシュボードはどのように進化しているのでしょうか。1つは、KPIが遅行指標から先行指標へと移行し、主要推進要因の分析が行われていることです。高度な状況認識が可能となり、非常に協調的になっています。データの変化を即座に把握する高度なアラートを作成することで、状況認識が可能になります。そして、AIがデータを状況に関連づけ、どの瞬間にどこに注意を向けるべきかを判断します。
コラボレーションの面では、ダッシュボードはインサイトと分散したデータをカタログ化する分析ハブへと進化しており、マシン、プロセス、コラボレーションのインテリジェンスが共存できる空間になっています。これにより、情報の作成者と利用者とを融合し、必要に応じて外部の関係者と連携することができます。
3.データ系統(Data Linage)を説明できる BI の提供
長年に渡り、分析担当者は指標や KPI算出の背後にあるデータについて説明するのに苦労してきました。そして、この問題は、データが企業内だけでなく、外部にも分散して断片化されるようになったことで悪化し続けています。
実際には発生しておらず、今後も発生することはないと思いますが、思考の実験として、すべてのデータが1つの場所に集められていることを想像してみてください。それでも、ただ1つの真実を得ることはできません。なぜなら、データはナノ秒の速さで変化し、説明すべき新たな変化が絶えず起きているからです。
現在、さらに分散したデータアーキテクチャが登場し、データ系統や影響分析、統制などのデータ管理を強化し、データの観測性を高めることが重要になっています。複数の真実が互いに関連し合う世界では、複数の視点でデータを測量して信頼性と「説明能力」を提供するために、系統が極めて重要になっています。
また、複数のデータソースや大規模なプラットフォーム全体で互いに分析を関連づける上でも役立ちます。データがどこから来たのか、ライフサイクルのどの段階にあるのかを、分析業務全体で可視化することができるようになれば、自信と信頼を持って、データから導かれたインサイトに基づいて行動することができるようになります。
4.スピーディなインサイトの獲得で浮彫りになるコスト
クラウドデータウェアハウスやデータレイクの刷新が進み、広く普及するようになったことで、膨大な量のデータに直接ライブでクエリを実行する機会が増えました。データを発見するためのパワフルなツールが出現したのです。
しかし、この手法を使用すると、クラウドコンピューティングのコストが莫大になってしまう可能性があります。また、パフォーマンスにも課題が生じます。ライブクエリのみを使用するのではなく、頻度や遅延の要件に応じたデータ管理と分析のアプローチが必要です。典型的なクエリの「ヒートマップ」を見ると、質問の大半が探索に関するものなので、リアルタイムで更新しなくてもインメモリーで実行することができます。
一方で、より複雑なクエリは、データソースレベルでコンピューティングが必要になるかもしれません。データ統合の面では、コンピューティングコストは高くても継続的にデータを更新・結合するか、コストが低くなる集計表示を行うかを選択できるようにする必要があります。
また、分析の観点からは、コンピューティングコストは高くてもライブクエリにするか、高速かつ低コストになりうるインメモリー探索にするかを選択できるようにすべきです。真のデータ主導型を目指すのであれば、インサイトの速度とインサイトあたりのコストの両方が増加するため、適切なクエリを適切な場所で行う方法を考える必要があります。
5.分散型クラウドの出現
当面、データの状況は混乱したハイブリッドな状態にあると考えられます。451 Research社によると、ほとんどの企業が IT ニーズに対する単一の包括的なソリューションだけでなく、さまざまな作業負荷のコスト、パフォーマンス、統制の要件に対応するIT資産を求めています。(参考)
特殊な作業負荷が生じるのには理由があります。エッジ側では処理が速くなる場合があります。コンプライアンスは不可欠です。セキュリティはこれまで以上に重要になっています。中国の新しいデータプライバシー法は、世界で最も厳しい法律の1つとなるでしょう。ヨーロッパでは、巨大なGAIA-Xプロジェクトにより、集約型インフラと分散型インフラを同種の利用しやすいシステムに接続することを目的とした、統合型オープンデータインフラの基盤を開発しています。分散クラウドまたはハイブリッドクラウドでは、次のようなニーズが増え続けています。
1)ハードウェアをローカルに設置することができる
2)統一された管理性とユーザーインターフェースで、クラウドのバリューチェーンにおける不一致を解決することができる
3)正しい方法で行った場合に、複数のクラウドハイパースケーラーを展開して事業者への依存度を減らすことができる
分散クラウドのインフラストラクチャは、互いに関連し合ったデータへのアクセスと共有の両方を安全かつ確実に行う能力を強化します。
急速な変化に対応できる知識と行動力を得る
市場が少数の強力なバリューチェーンによって支配されるようになると、単独では戦えません。新しいアーキテクチャのアプローチや相互運用性、APIを用いたオープンプラットフォームが融合する、バリューチェーンを構築するためのパートナーシップを築き、これまでにない機会をもたらします。生成されたデータとインサイトは共通の通貨となり、自社とパートナーの成功に柔軟性をもたらします。このアプローチをとるには、明確なルールや共通の目的、長期的な視点、マインドセットの変化が必要です。今こそ、強固に融合するべきです。