Clouderaは10月11日、米国時間10月10日に開催されたデータおよびAIに関する年次カンファレンス「EVOLVE24 New York」において、NVIDIA AI Enterpriseプラットフォームの一部であるNVIDIA NIMマイクロサービスを搭載した「Cloudera AI Inference」の提供開始と、今後リリース予定の新機能を発表した。
「Cloudera AI Inference」は、AIモデルのデプロイと推論を効率的に行うためのプラットフォーム。NVIDIA Tensor Core GPUsによる最大36倍の高速パフォーマンスを実現するとしており、CPUと比較して約4倍のスループット向上により、エンタープライズ向けの大規模言語モデル(LLM)の構築、カスタマイズ、デプロイが可能となる。
NVIDIA NIM マイクロサービスコンテナに統合できるため、コマンドラインインターフェース(CLI)や個別のモニタリングシステムが不要となる。さらに、Cloudera の AI Model Registryとの統合により、モデルのセキュリティとガバナンスも強化され、統一プラットフォームでのモデル管理が可能。
そのほか、VIDIA NIMマイクロサービスを活用し、LlamaやMistraといったオープンソースのLLMを最適化するAI機能により、自然言語処理(NLP)やコンピュータビジョンなどの最新技術が利用可能。ハイブリッドクラウドやプライバシーに配慮し、セキュリティや規制コンプライアンスを強化するためにVPCにデプロイして、オンプレミスまたはクラウドでワークロードを実行できる。
また、自動スケーリングや高可用性(HA)、リアルタイム監視による効率的なリソース管理も特徴で、標準準拠のAPIを使用してモデルのデプロイ、管理、モニタリングが可能で、CI/CDパイプラインやMLOpsワークフローとシームレスに統合される。
さらに、エンタープライズ向けのセキュリティ機能も備え、サービスアカウント、アクセスコントロール、リネージ、監査機能によりモデルアクセスを強化するほか、A/Bテストやカナリア・ロールアウトを活用して、新しいモデルのアップデートをリスク管理しながら進めることができる。
なお、「EVOLVE24 New York」で発表された今後リリース予定の新機能は、クラウドとオンプレミスの境界をなくした統合プラットフォーム、インフラ管理のハイブリッドコントロールプレーン、データレイクとデータウェアハウスを組み合わせたオープンデータレイクハウス、一貫したセキュリティとガバナンスの統合、データフェデレーションのシームレスな移動機能、そしてARMベースのシステム(AWS Gravitonなど)への対応など。