グーグル・クラウド・ジャパンは8月31日、同29日~31日の期間で米国で開催されている年次カンファレンス「Google Cloud Next '23」で発表された各種サービスに関する説明会をオンラインで開催した。
「Duet AI for Workspace」の一般提供を開始
まず、今年5月に開催した開発者向けイベント「Google I/O」で発表されたGoogle Workspaceの各アプリケーションに生成AIを適用させた「Duet AI for Workspace」について、グーグル・クラウド・ジャパン グローバルカスタマーエンジニアリング本部 Google Workspace チームリード、カスタマーエンジニアの中之薗朔氏が説明した。
同氏は「Google Workspaceはクラウドネイティブなコラボレーションプラットフォームとして提供を開始して以来、現在グローバルでは1000万の有償顧客、30億人のユーザーを抱えるに至っている。生成AIの領域では3月にDuet AI for Workspaceのコンセプトを発表し、今回のカンファレンスでは英語による一般提供がアナウンスされた」と述べた。
Next '23においては「Duet AI side panel」「Duet AI in Google Meet」「Duet AI in Google Chat」
Duet AI side panelは、Google Workspace上でユーザーが何をしているのか、何を必要としているのかのコン的スつを理解したうえで、能動的に的確なサポートを提供し、例えばGmailやGoogle Chatで受けたメッセージを要約し、やるべきタスク・期日などを表示できる。
Duet AI in Google Meetは来年以降の提供を予定し、Duet AIがMeetで行われたオンライン会議の議事録の作成やタスクのリスト化、会議内の重要なポイントを示すビデオサマリーなどを提供するほか、投影資料をプレゼンターのペースに合わせて表示。また、翻訳字幕でサポートする言語のペアを300以上に拡大する。
Duet AI in Google Chatは、直近のメッセージのサマリー作成やGmailなどからコンテンツを引き出し、インサイトや提案を提供することに加え、Chatの検索を一新することで通知をまとめつつ重要なメッセージをハイライト表示する。
AI開発環境「Vertex AI」など、多数のアップデート
次に、グーグル・クラウド・ジャパン ソリューション&テクノロジー部門 技術部長(DB, Analytics & ML)の寳野雄太氏により、Data & AI Cloudに関するアップデートが紹介された。
寳野氏は「GoogleのData & AI Cloudは生成AIを活用し、すべてのユーザーのデータとAIの体験をシンプルにするという方向性で、さまざまなアップデートがされた。データとAIは切っても切り離すことができず、データには本来、開発者だけでなく、データ分析チーム、ビジネスチーム、経営層、パートナーをはじめ、あらゆるユーザーがシームレスに1つのプラットフォームで活用できるように支援する」と強調した。
同氏によると、Google Cloudはデータベースからデータアナリティクス、AI&ML(機械学習)、ビジネスインサイトまで、すべての領域で基盤モデル(Foundation Model)が搭載されており、それらを機能として提供していくという。
AI関連の発表
AI関連は、AI開発環境の「Vertex AI」上で提供されている基盤モデルであるLLM(大規模言語モデル)「PaLM」、高度で信頼性の高い検索結果の回答を行う「Embeddings」、画像生成AI「Imagen」、コード補完・生成「Codey」の新バージョンと、チューニング対象モデルを拡大する。
また「Colab Enterprise on Vertex AI」「Vertex AI Extensions」「Vertex AI Search」「Vertex AI Conversation」「Grounding for PaLM API」「Grounding for Vertex AI Search」が発表された。
PaLMでは従来は入力トークンの制限が8000だったが、3万2000に拡張するとともに日本語を含む38言語に対応したほか、Embeddingsは日本語を含めてさまざまな言語での利用が可能になった。Imagenは生成画像の改善、レイテンシの削減、デジタル透かしを提供する。Codeyでは日本語を含む言語の品質が25%改善すると同時、テキストからパフォーマンスの良いSQLを生成し、長いプログラムコードに対応した3万2000の入力トークンに拡大。
チューニング対象モデルの拡大に関しては、ImagenとCodeyでアダプタチューニングが一般提供となり、RLHF(Reinforcement Learning from Human Feedback)がパブリックプレビュー、Imagenのスタイルチューニングがプライベートプレビューとなっている。
プレビュー版のColab Enterprise on Vertex AIは、Pythonを記述するためのノートブック「Colab」の企業向けツールとなり、セキュリティとコンプライアンスを担保した形でリリースする。
Vertex AI Extensionsはプライベートプレビュー版を提供しており、基盤モデルによるアクションを可能とし、モデルをAPIに接続する拡張機能用のフルマネージドツールとなり、基盤モデルとリアルタイムデータ、現実世界のアクションを接続することができる。
一般提供を開始したVertex AI Searchは、生成AIを含む検索体験を実現。基盤モデルを活用してマルチモーダル、マルチターン検索を構築し、エンタープライズデータとLLMの持つ知識を融合してサマリーを作成することが可能だ。
Vertex AI Searchと同じく一般提供を開始したVertex AI Conversationは社内外のデータにグラウンディングされた市政AIを利用したカスタムチャットとボイスボットを構築できる。決定論的なワークフローと生成AIを組み合わせており、テクスト、画像、音声に対応し、Webサイト、ドキュメント、FAQ、メールをはじめとしたデータに基づいた学習を行う。
データアナリティクス関連の発表
データアナリティクス関連では、いずれもプレビュー版で「Duet AI in BigQuery」「Duet AI in Looker」「BigQuery Studio」などが解説された。
Duet AI in BigQueryはBigQueryに組み込まれた生成AIがデータ活用を日本語で支援し、自然言語によるコード生成、インラインSQL補完をテーブル情報にもとづいて支援し、AIとの会話で複雑なクエリの理解と記述も支援する。
Duet AI in Lookerは、会話型クエリやレポートの生成、計算式のアシスタント、高度な可視化のアシスタント、LookerMLのアシスタントが可能。BigQuery StudioはColab EnterpriseがBigQueryのUIと統合しており、ユーザーが使いたい言語で分析ができるという。
データベース関連の発表
データベース関連は「AlloyDB AI」「Duet AI in Databases」「Cloud Spanner Data Boost」などが紹介された。
AlloyDB AIは、エンタープライズ生成AIのワークロード向けに提供し、標準のPostgreSQLと比較して10倍高速なベクトル検索と、4倍のベクトルのサポートを提供するほか、データベース内のエンベディングモデルとVertex AIのリモートモデルの呼ぼだしの双方をサポート。
Duet AI in Databasesはデータプロダクトの探索や学習用のチャットインタフェースとなり、開発ワークスペースにおけるプログラミングを支援し、データベース移行のためのコード変換を支援する。
Cloud Spanner Data Boostは、トランザクションと分析のワークロードを統合し、OLTP(Online Transaction Processing)ワークロードへの影響はなく、最大必要な時に使うため追加の運用負担はないという。
NVIDIAのGPU搭載「Google Cloud A3 Supercomputer」を発表
最後にグーグル・クラウド・ジャパン合同会社 ソリューション & テクノロジー部門 技術部長(インフラストラクチャ & アプリケーションモダナイゼーション)の安原稔貴氏がクラウドインフラストラクチャについて説明した。同氏は「近年、AI/MLのワークロードは大規模モデルのトレーニングのトレンドが来ているため、これらに対応する製品に注力している」と述べた。
そこで、安原氏は「Google Cloud A3 Supercomputer」「Cloud TPU v5e」「GKE(Google Kubernetes Engine) Enterprise Edition」「Cross Cloud Network」「Cloud NGFW」を紹介した。
Google Cloud A3 Supercomputerは「NVIDIA H100 GPU」を搭載し、従来機のA2と比較して10倍のネットワーク帯域幅、3倍のトレーニング性能を持つという。数万個規模の相互接続されたGPUまでスケールでき、GCE(Google Compute Engine)やGKE、Vertex AIからの利用を可能としている。
Cloud TPU v5eはAIに特化した新しいプロセッサとなり、前世代のTPU v4と比較して2倍のトレーニング性能と2.5倍の推論性能を備え、数万チップまで拡張できるという。安原氏は「大規模なモデル開発基盤としての利用を見込んでおり、A3 Supercomputerと組み合わせることで、コストメリットとスケーラビリティの両方を考慮できる」と説く。
GKE Enterprise Editionは、Kubernetesの活用が拡大し、大規模なサービスにおいてマルチクラスタ/リージョンの構成が一般的になっていることから、大規模な環境を管理するために利用するというもの。
Cross Cloud Networkは、ハイブリッド/マルチクラウド構成における迅速化、コスト最適化、脅威への保護を有したネットワーク構成ができる。ネットワーク遅延を最大35%短縮し、最大40%のTCO(Total Cost of Ownership)削減が可能だという。
Cloud NGFWは、Mandiantとパロアルトネットワークスと共同開発した次世代ファイアウォール。Ixia Breakingpointのベンチマークでは、従来のファイアウォールソリューションより20倍高い脅威保護の有効性を確認。既存環境やトラフィックルートの変更を必要とせず、組織レベルでのセキュリティポリシーの適応、IAMのタグを利用したアクセス制御の実装を可能としている。