Amazon Web Services(AWS)が米ラスベガスで開催中の年次イベント「AWS re:Invent 2024」、3日目の基調講演はAI一色となった。登壇したのはAI and Data担当バイスプレジデントのSwami Sivasubramanian氏。「Amazon SageMaker」「Amazon Bedrock」におけるさまざまな強化を発表した(新CEOのMatt Garman氏が登壇した基調講演の模様はこちら)。

  • Amazon Web Services AI and Data担当バイスプレジデント Swami Sivasubramanian氏

クラウドは生成AIが発展するための条件

「われわれは生成AIの転換期にある」――Sivasubramanian氏は、現在の生成AIに大きな影響を与えた「Transformer」に至るまでのAIの歴史をなぞった後、こう述べた。ツールやユーザーインタフェースの進化などにより、生成AIは一気に広がっている。

このような生成AIブームの背景として、Transformerなどの技術的なブレークスルーに加えて、Sivasubramanian氏が強調するのが「クラウド」の存在だ。「クラウド経由で、大規模なデータセットと特別なコンピューティングが利用できるようになった。これがAIが発展するための完璧な条件になった」と同氏。

AIでオンプレ回帰が進むという指摘も聞こえるが、クラウドの重要性は健在というわけだ。

カスタマーサービス、マーケター、そして開発者と、さまざまな領域で生成AIの活用が進みつつある。

アナリティクスとAIを統合した次世代のSageMaker

AWSはこれまで「DynamoDB」「Amazon EMR」「Amazon Redshift」などで分析を支え、SageMakerとBedrockにより「機械学習の民主化」を進めてきた。

ビックデータ、アナリティクス、機械学習、そして生成AIと、テクノロジーの広がりを受けて、AWSが打ち出したのが「次世代のSageMaker」だ。「単なるツールの統合ではない。データ周りにおけるこれまでの学びを統合したプラットフォームだ」と、Sivasubramanian氏は次世代のSageMakerを紹介した。

SageMakerは10万以上のデータ処理に活用されているが、アナリティクスとAIが近くなる中で、次世代版ではこの2つを統合した体験を提供する。

「SageMaker Unified Studio」は、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Bedrock、Amazon SageMaker Studioで利用可能な機能を統合したもの。

一方、「Amazon SageMaker Lakehouse」はAmazon S3のデータレイク、Redshiftのデータウェアハウス、サードパーティのデータソースを統合するオープンなデータアーキテクチャを持ち、SAP、SalesforceなどとETLゼロで統合できる機能などを含む。

トレーニングの「SageMaker AI」も進化しており、この1年で140もの機能が加わった。生成AIにより数十~千億ものパラメーターを持つ大規模なモデルのトレーニング、推論をサポートするニーズを受け、2023年にAWSは「Amazon SageMaker HyperPod」を発表した。

今年は、リソースの利用率を最大90%改善できるという「Amazon SageMaker Hyperpod flexible training plans」、複数のチームやプロジェクトでのリソースの効率的な利用を進めるための「Amazon SageMaker HyperPod Task Governance」を発表した。

「モデルが高度化するにつれ、コンピュートリソース、エネルギー消費、データ品質などでこれまでにない課題に直面している。リソースの確保、効率的な管理ができることはゲームチェンジャーになる」とSivasubramanian氏。中でもAmazon SageMaker HyperPod Task GovernanceはAmazon社内で利用したところ、アクセラレーテッドコンピューティングの利用率を90%以上に引き上げることができたという。

これらに加え、SageMaker AIでは外部アプリの提供も開始する。まずはモデル評価の「Comet」「Deepchecks」、デバッグの「Fiddler」、アプリケーション保護の「Lakera Guard」が発表、今後も追加していくという。

AWSを土台に基盤モデルを開発、3D 生成AIを進めるAutodesk

AWSの技術を活用して基盤モデルを構築し、3D CADの世界を革新しているのがAutodeskだ。

ステージに登場したAutodeskエグゼクティブバイスプレジデント兼CTOを務めるRaji Arasu氏はまず、業界の課題として「建築家や事業所はタイムリーかつ安価に設計をしなければならない。製造事業者サプライチェーンや労働力不足などの課題を抱えながら新製品を短期間で市場に投入しなければならない」と切り出した。

  • Autodesk エグゼクティブバイスプレジデント兼CTO Raji Arasu氏

高速に、低コストで、少ないリソースで――これを満たすべく、Autodeskが取り組んでいるのが「Project BERNINI」として進める3Dモデル向けのAIだ。テキスト、スケッチ、点群など、クリエイターのデザインプロセスを再現するマルチモーダルな入力をサポートし、3D形状を生成するという。

  • Autodeskが取り組んでいる「Project BERNINI」の概要

「汎用AIとは異なり、2Dおよび3Dの形状を生成するように設計されている。物理的な法則に基づき、空間的・構造的な推論が必要だ。われわれの基盤モデルは形状とテクスチャを区別でき、顧客は視覚的に優れているだけでなく、精度と正確さも備えたデザインを作成できる」とArasu氏。

基盤モデル構築にあたってAWSと手を組んだ理由は、クラウド、データ、AIと過去15年にわたってパートナー関係にあったため。

作業としては、大規模な設計ポイントから大量のインテリジェンスを抽出し、クラウド上でデータに変換した。DynamoDBをプライマリデータベースとし、数十億単位のオブジェクトを処理する正規データモデルを作成した。AWSの協力により、高スループットとほぼゼロ遅延の環境でスケールとファインチューニングを行ったという。

次のデータの準備では、 EMR、「Amazon Elastic Kubernetes Service(EKS)」「AWS Glue」 SageMakerを使ってシームレスに拡張でき、要件を満たす結果が得られた。全てを同じクラウド内で保持することで、運用とセキュリティという副次的なメリットも得られたという。

GPUについても、「選択肢はいくつもあるが、SageMakerによりインフラ管理の手間なくさまざまなインスタンスをテストできた」とArasu氏は振り返る。そして、「データ準備、モデル開発、顧客向けAI機能の開発など、私たちが最も得意とする分野に集中できた」と振り返った。

このほか、EC2インスタンスのネットワークインタフェース「Elastic Fabric Adapter」を利用することで基礎モデルの開発時間を50%削減した。

最後の課題だった推論では、SageMakerのオートスケーリングとマルチモーダルエンドポイントにより、高スループット、最小限のレイテンシー、最大限のコスト効率を実現しつつ、リアルタイムとバッチの両方の推論をシームレスにサポートできたという。

「基盤モデルの展開時間を半分に短縮し、AI実践の生産性を30%向上し、運用コストを安定して保つことができた」とArasu氏。さらに、Amazon SageMaker Unified Studioの利用などにより、AIチームの開発速度を5倍に改善することを視野に入れているという。