New Relicは6月18日、都内で記者説明会を開き、同社プラットフォームの新機能として「Cloud Cost Intelligence」「Pipeline Control」をはじめとしたクラウドおよびAWS(Amazon Web Services)への対応を発表した。また、説明会ではAI insideにおける導入事例も紹介された。
国内ではトップシェアを誇るNew Relic
オブザーバビリティはスマートフォンやクラウドの進展に伴う、さまざまなデータを取り込み、システム全体を観測すること。New Relicは、国内のオブザーバビリティツールとしてトップシェアを誇り、グローバルで8万5000のユーザーを抱えている。
はじめに、New Relic 執行役員 技術統括兼CTOの松本大樹氏は「2025年におけるグローバルのオブザーバリティは、マーケットが成長過程にあること、非エンジニアでも活用できるツールと認知されていること、AIの運用監視やオブザーバビリティツールにAIを活用することがトレンド。現在、システムに組み込まれている当社のエージェントは500万、容量は3.3エクサバイト、1日あたり4億クエリとクラウドに加え、AIの利用も拡大している」と話す。
同氏が言及するように、AIの利用がクラウドの利用をさらに後押しする格好となり、クラウドの日本市場はIDCの調査結果によると2024年が4兆1000億円であり、2029年までに2.1倍の8兆8164億円が見込まれ、CAGR(年平均成長率)は16.3%となっている。
こうしたクラウドの利用拡大により、企業ではコストコントロールやツールのコスト増大、ROI(投資対効果)の定量化が困難になっているという。そこで、同社ではCloud Cost Intelligence(CCI)とPipeline Controlを提供するというわけだ。
FinOpsを実現するための新機能
新機能に関しては、New Relic 上席エヴァンジェリストの清水毅氏が説明し、その前提としてFinOpsを紹介した。
FinOpsは、クラウドの財務管理を実現する新しい組織文化と実践手法で、技術・財務の両チームの協働でクラウドリソースの価値最大化を目指すというものだ。クラウド支出の可視化、リソースとコストの最適化、全チームがコスト意識を持って行動する説明責任、継続的な改善サイクルを構築する運用を可能としている。
近年、ITコストが増大する要因として、同氏はピークを想定した過剰なリソースの割り当てや未利用のリソース/サービス、過剰なバックアップ、リージョン間・外部への膨大なデータ転送といったインフラ、アーキテクチャに起因するもの、そしてマシンリソースを要する非効率な処理、非効率なクラウドサービスの利用、API設計に起因する想定外の負荷増大などアプリケーションの作りに起因するもの2つを挙げている。
同氏は「真のFinOpsのアプローチとは、インフラやクラウド、アプリケーションの無駄を削減しつつ、コストの削減、最適化を行いながらビジネスを成長させることCIはリアルタイムにインフラ原価の最適化や削減を可能とし、Pipeline Controlはビジネスデータやアプリケーション、インフラ、クラウドに関するさまざまなデータを最適化、削減することができる」と力を込める。
Cloud Cost Intelligenceの概要
限定プレビュー版で提供しているCCIは、まずはAWS(Amazon Web Services)とKubernetesに対応済み。
CCIは「New Relic Cloud Cost Intellegence Cycle」と呼ぶ「コスト可視化・確認」「コスト削減・最適化」「コスト管理(想定外の利用増加の早期検知)」「利用量の予測」「予算確保(利用量のプランニング)」のサイクルを回す。これにより、エンジニア、財務、プロダクト、経営陣をはじめとした各部門を横断したコスト管理の共通基盤としての役割が期待されている。
CCIダッシュボードでは総費用、平均費用、対応する傾向把握や主要なコストドライバー、地域ごとのコスト、リアルタイムのコスト見積もりついて可視性を提供するとともに費用の分類を可能としている。
同氏は「エンジニアはクラウドコストの可視化、財務は正確な予算編成や予測、リアルタイムのコスト、プロダクトは商品の決定やプライシング、原価率の最適化などが可能となり、経営陣に財務リスクを伝える際はレポートを都度提出するのではなく、ダッシュボード上で確認できる。また、Kubernetesに対応しているため、どこのPodがビジネス価値と比較して、どの程度のクラウドコストがかかっているかが迅速に把握可能だ」と強調した。
Pipeline Controlの概要
次に、すでに一般提供開始しているPipeline Controlについて。従来、ユーザー側ではさまざまなデータをNew Relicに送る状況下でデータが要/不要かの判断が難しく、これまでは手動でおこなっていたという。そのため、Pipeline Controlは「テレメトリーの最適化」「データ価値の最大化」「ROIの視覚化」「データ活用の促進」の4つが特徴だ。
具体的にはテレメトリーデータをパイプライン処理し、柔軟にフィルタ・変換・加工することが可能なほか、データのカスタマイズ性を向上してデータ利用価値の最大化とデータコストの適正化を両立。さらに、パイプライン処理はNew Relic側だけでなく、送信元でも可能としている
Pipeline Controlについて清水氏は「データが複雑になり、New Relic上でクエリを用いなければ分析を引き出せないという状況から、データの場所を把握してコントロールしながら収集できることから、収集の無駄を削減できる。結果的にシステムを理解するために必要なデータを優先で気に取得可能なことに加え、ROIを可視化してデータ活用の促進ができる」と、そのメリットを語っていた。
AI insideのNew Relic導入事例
最後に、New Relicを導入しているAI inside VPoEの三谷辰秋氏が事例を紹介した。同社では主力サービスとして、AWSでAI-OCRサービス「DX Suite」を提供している。New Relic導入前の課題感として、共通データがなく、顧客体験や運用コストの停滞していたという。
その結果として、社内やユーザーから「サービスが遅い」といった声や、社内における共通言語がないため合意形成に時間を要していた。また、システムの複雑化で手動による分析の限界、運用コスト最適化の土台として全レイヤの可視化が必須となっていた。
AI insideでは、高価値なAIを低価格で広く提供する「AI inside Cycle」を掲げている。三谷氏は「これは優れたユーザー体験により多くのユーザーが利用し、多くのデータを新たに学習することで高価値なAIが生まれ、それをユーザーに返すことでユーザー体験の向上につなげていくサイクルを続けていくことで持続的な成長、低コスト化、低価格化を実現していくもの」と説明。
こうした同社の考え方にNew Relicは合致したことからクラウドレイヤ、インフラレイヤ、アプリケーションレイヤにそれぞれに導入を決定。New Relic APM(アプリケーションパフォーマンス管理)でボトルネックを分析し、マイクロサービス間やサービス内部のビジネスロジック効率化、SQLの最適化を行い、主要APIレスポンスのレイテンシを51%削減した。
また、クラウドリソースの徹底的な分析でリソースを効率的に活用して高速化や最適化を実施し、スループットを48%向上させたという。同氏は「当社としてはユーザー体験を最重要視しているが、一連の処理フロー全体を改善したところ体感速度2倍も達成できたという。
では、実際にどのように実現していったのだろうか?まずは可視化だ。これはAPMと独自ダッシュボードでコスト、品質をリアルタイムで把握。次に収集したデータでボトルネックの特定やリソース状況を検知し、コード・インフラを最適化してコスト低減と性能向上に取り組む。そして、さらなるUX改善や新機能につなげていき、これらのサイクルを継続的に回すことで成果をあげていったとのことだ。
FinOpsの学びとして三谷氏は「FinOpsは、顧客価値の最大化を目的としているため経営から開発まで同じ指標での議論が必要となり、コストを下げることだけでなく、ユーザーの価値を向上させることが非常に重要。また、APMでボトルネックを可視化し、APIの遅延を発見することでコードとインフラ改修で応答速度を倍増することができた。さらに、クラウドのコストとNew Relicのコストの全体を管理する必要がある。ユーザーの価値を向上させるために、直結しないログやメトリクスデータを1つ1つ確認していくことで観測精度を下げずにコストを引き下げていくというバランスを両立することが可能になった」と成果を口にしていた。