Amazon Web Servicesが2024年12月に開催した年次イベント「AWS re:Invent 2024」はAI戦略一色となった。ここでAmazonが独自基盤モデル「Amazon Nova」を発表(参考記事:AWS re:Invent 2024基調講演、新CEOのGarman氏がお目見え- Jassy氏は新基盤モデル発表)、生成AIサービス「Amazon Bedrock」「Amazon SageMaker」も機能強化が発表された(参考記事:AWSがAIとアナリティクスを統合した次世代SageMaker、AI関連発表一色)。

イベント会場で、AWSでバイスプレジデント兼ゼネラルマネージャーとして生成AIの取り組みを統括するVasi Philomin氏に話を聞いた。

  • Amazon Web Services バイスプレジデント兼ゼネラルマネージャー Vasi Philomin氏

Amazon Bedrockの戦略における3つの柱とは

--re:Inventの基調講演で、Matt Garman氏(AWSのCEO)は推論について、コンピュート、ストレージ、データベースに次ぐビルディングブロック(構成要素)という位置付けを示したが、その意図は?--

Philomin氏: AWSはコンピュート、ストレージ、データベースにプログラム的にアクセスできるということを先駆者として実現した。現在クラウドコンピューティングといえば、この3つを指していた。

われわれは、生成AIにおいて推論にプログラム的なアクセスを提供する。そして推論は人間の推論に近づいていく。これが始まっていることだ。

アプリケーションにコンピュート、ストレージ、データベースの要素があるように、推論と生成AIも、今後構築されるすべてのアプリケーションの基本的なビルディングブロッックになる。

--Amazon Bedrockの戦略を教えてほしい--

Philomin氏: Amazon Bedrockの位置付けは、生成AIを活用する、あらゆるアプリケーションの構築に利用できるツール。戦略は「モデルの選択肢」「ワークフロー」「コスト」と3つの柱の下で進めている。

「モデルの選択肢」とは、さまざまなモデルから最適なものを選んで利用できること。われわれは1つのモデルが圧倒的になるのではなく複数が共存すると考えている。また、1つのモデルファミリーでも得意なものが異なり、コスト、精度、遅延のトレードオフが常にある。モデルは日々変化しており、昨日最も良いと思ったモデルを凌ぐものが今日登場するという世界だ。実際、Amazon Bedrockユーザーの半数以上が複数のモデルを使っている。

さまざまなモデルを利用できることに加えて、Amazon Bedrock Marketplaceとして100以上のモデルを公開している。タンパク質構造に特化した「ESM-3」のような専門的なモデルが並んでいる。

「ワークフロー」に関しては、アプリケーション構築向けを多数そろえている。例えば、Amazon BedrockはGuardrailsとして、アプリケーションに対してポリシーを設定できる機能がある。加えて、個人を特定できるPII(Personal Identifiable Information)やハルシネーションを検出できる。

もう一つのワークフロー機能の例が、2023年より取り組んできたAgentだ。エージェントはツールとリソースを与えることで、指定されたタスクをこなすデジタルワーカーで、チャットをするだけでなく作業まで行う。

アプリストアにアプリがあるように、生成AIはエージェントが抽象化になる。今年のre:Inventではマルチエージェント協調フレームワークの機能を発表した。これにより、複数のエージェントが協力して、より大きな問題を解決できる。

「コスト」に関しては推論に容易にアクセスできるようにする。推論はモデルが予測を行い要求された作業を実行する部分を担うが、ここがアプリケーションのコストの大半を占めている。われわれは推論のコストを下げ、負担を感じないようにしていきたい。

そのために、独自のチップとしてTrainium2、Inferentiaなどの開発を進めており、同等のEC2インスタンスと比較すると40~50%価格性能比に優れる。re:Inventではさらに、Prompt Cashing(プロンプトキャッシング)、Model Distillation(モデル蒸留)などの機能を発表した。

AWSはハードウェアを含むエンド・ツー・エンドでAIを考えている。これが顧客の成功と大規模な展開を支えている。何ができるのかをデモをするだけではない。

なお、この戦略は18カ月前に聞かれても同じだ。この間、それぞれの分野で機能を増やしたが、方向性は変わっていない。

われわれの戦略の正しさを実証するデータもある。Amazon BedrockはAWSの歴史の中で急成長しているサービスの一つだ。2023年9月に一般提供になり、それ以来1万以上の組織、数万人の開発者が利用している。

ユーザーベースはサービス開始以来4.7倍に成長しており、Brainbox.AI、Intuit、DoorDash、KONE、Ferrariなどの顧客が実際のビジネス成果に繋げている。

「Nova」発表に見るAmazon Bedrockのモデル戦略とは

--re:InventではAmazonがAIモデル「Nova」を発表した。Novaがモデルの選択肢を提供するという方針に変わりはないか? 選択肢にGPTが含まれていないことは、Amazon Bedrockの競争力にどのような影響を与えるのか?--

Philomin氏: Amazon Bedrockで最初に導入したAmazonのAIモデルはAmazon Titanだった。Titan Embeddings、Titan Image Generatorは現在でもよく使われているモデルだ。

複数のモデルから最適なものを使いたいという開発者のニーズは、当社の顧客だけでなくAmazon社内も同様だ。Novaはそうしたニーズの一部を満たすものとして開発されており、AnthropicのClaude、Llama、Mistralなどと対等に扱われる。特別扱いすることはない。

例えば、NetflixもAmazon Prime Videoもわれわれの顧客だ。どちらかを優遇するようなことはない。モデルも同じだ。

GPTについてだが、AWSはお客様に多様な基盤モデルの選択肢を提供することを重視しており、多くのモデルプロバイダーと協力することにオープンだ。

SageMaker刷新のポイントとは

--SageMakerはre:Inventで新しさを打ち出した。新しいSageMakerの位置付けは?--

Philomin氏: SageMakerはすでに数十万人もの開発者が機械学習モデルの構築、トレーニング、実装に使用している人気のサービスだ。われわれは今回SageMakerを拡張し、最も包括的なデータ、分析、AIツールセットを統合した。これにより、高速なSQLアナリティクス、ペタバイト規模のビックデータ処理、データ探索と結合、モデル開発とトレーニング、生成AIに必要な機能を1つのプラットフォームからアクセスできる。

新機能の一つがSageMaker Lakehouseで、データレイク、データウェアハウス、運用データベース、業務アプリケーション全体のデータを統合する。また、同じく新機能であるSageMaker Unified Studioから使い慣れたAI/機械学習ツールやApache Iceberg互換クエリエンジンを使ってデータにアクセスすることができる。

生成AIから成果を得るために支援するAWS

--生成AIから成果を得ることは簡単ではないと言われているが--

Philomin氏: 生成AIにより、企業と消費者がやり取りする方法においてかつてない大きな変革が起きている。この2年で、規模や業界を問わずあらゆる企業が生成AIに熱意、投資を向けているのを目にしている。

現在、生成AIは「本番環境への移行」に向けた転換地点にある。そこではガバナンスが求められ、既存のワークフローに統合可能で、安全かつ拡張性のあるツールが必要だ。これにより、AIは実験的なツールから本番環境で使えるビジネスにとって不可欠なものになるだろう。

当社はTrainiumやGPUインスタンスを活用した拡張性のあるインフラ、SageMakerによる高度なモデルトレーニング、Amazon Bedrockによるアプリケーション開発、AmazonQの生成AIアシスタントなどをそろえており、組織がAIを実際のユースケースにシームレスに統合できるように支援していく。

具体的な取り組みの例としては、AWS内部のAIや機械学習の専門家とパートナーをグローバルなお客様と結びつけて新しい生成AIソリューションの構想、設計、立ち上げを支援する「AWS Generative AI Innovation Center」に1億ドルを投資している。

2024年7月には「AWS Generative AI Acceleration Program」をスタートした。これは、顧客のモデル構築とAmazon Bedrockでの既存モデルの活用を支援するもので、30以上のAWSパートナーが参加している。日本でも、90以上の組織がこのプログラムを通じてイノベーションを進めている。

他国と比べた日本における生成AIの取り組みの状況は?

--日本の生成AIの動きをどのように見ているか?--

Philomin氏: 2023年9月に米国でAmazon Bedrockをローンチし、その1カ月後(2023年10月)にローカルリージョンで展開した数少ない国の一つが日本だ。それ以来、さまざまな分野の組織・企業が実験、概念実証(PoC)、早期採用に取り組んでいる。電通デジタル、富士通、リコー、三菱UFJ銀行などがAmazon Bedrockを使っている。

AIに関する日本市場への支援を紹介すると、600万ドルを投資するAWS LLM開発支援プログラムを展開している。このプログラムの下、日本を拠点とする17のスタートアップ企業、大企業、研究機関が独自のLLMを構築することを支援している。

また、スキルギャップ問題の解消に向けて、2017年より日本で70万人以上にクラウドスキルトレーニングを提供している。当社のクラウドインフラへの投資は、日本のGDPに5兆5700億円の貢献をもたらしている。これは、毎年平均して日本の地域企業に3万500人分のフルタイム雇用に相当すると試算している。

新たに立ち上げたAmazon Bedrock Marketplaceでは、Preferred Networks(プリファードネットワークス)、Stockmark(ストックマーク)などがモデルプロバイダーとして参加している。これにより、日本の顧客はAmazon Bedrockを通じて提供されるワークフローで、国産モデルを活用できる。