日本IBMは9月20日、オフラインとオンラインのハイブリッドで7月に一般提供を開始したAIとデータプラットフォーム「IBM watsonx」の最新状況に関する説明会を開催した。
IBM独自の基盤モデルの日本語版を来年1~3月に提供開始
はじめに、日本IBM 常務執行役員 テクノロジー事業本部長の村田将輝氏は、従来から同社が掲げるAIに対する信念として「Open」「Trusted(信頼できる)」「Targeted(明確な対象)」「Empowering(力を与える)」の4点を改めて強調し、以下のように述べた。
「1つの基盤モデルですべての課題を解決することはできないため、watsonxはマルチ基盤モデルとしてIBM独自のものからオープンソース、他社製のものまで適材適所で利用できる。また、基盤モデルの構築には事前学習と追加学習のデータは可視化され、信頼できるものを活用することが自社製品・サービスにAIを組み込む際は重要になる。さらに、特定用途向けの追加学習が必要だ。そして、お客さまのAIモデルを創造するとともに、オンプレミス、クラウド、エッジを含めたデータを活用し、あらゆるシステム環境で動くことがポイントとなる」(村田氏)
watsonxはAIモデルのトレーニング、検証、チューニング、導入を行う「watsonx.ai」(7月に提供開始済み)、あらゆる場所の多様なデータに対応してAIワークロードを拡大する「watsonx.data」(同)、責任と透明性があり、説明可能なデータとAIのワークロードを実現する「watsonx.governance」(年内に提供開始予定)の3つのコンポーネントで構成し、「Red Hat OpenShift」によりクラウド、オンプレミス、エッジ環境でも動かせる。
同氏によると、AIモデル構築のアプローチとして「構築済みのAIサービスを製品に組み込む」「構築済みのAIサービスを利用する」「基盤モデルを利用して独自のAIサービスを創る」「基盤モデルからスクラッチでAIサービスを創る」の4つを挙げている。
村田氏は「watsonx.aiは4つのパターンに対応し、あらゆる場所でAIが活用することに対してガバナンスを効かせるものがwatsonx.governance、追加学習で使用したデータについてデータ保護・管理するものがwatsonx.dataとなる」と説く。
watsonx.aiはIBM独自の基盤モデルとオープンソースの基盤モデル(Hugging Faceと提携)、他社製基盤モデルの利用を可能としており、村田氏はIBM独自の基盤モデルについて説明した。
同社独自の基盤モデルは「Slate」「Granite」「Sandstone」があり、エンコーダ(情報を読み込み、さまざまなタスクで使いやすいベクトルを取り出す)のみで1億5300万パラメータのSlateは、すでに提供されている。
9月中に提供開始を予定しているGraniteは、デコーダ(情報を生成する)のみで130億パラメータ、10月に提供開始を予定しているSandstoneはエンコーダとデコーダで30億パラメータとなる。そして、同氏はこれら独自の基盤モデルの日本語版を年内に先行リリースし、来年第1四半期(1~3月)に提供開始することをアナウンスした。
村田氏は「企業が自社の製品・サービスに組み込み、また日本企業が輸出してAIを活用した製品を提供するという観点で重要なことは倫理リスクとなる。当社の基盤モデルは学習データのリスクを最小限にして基盤モデルを構築しており、当社の製品にも組み込んでいく。AIの領域でIBMが目指すところはAIのユーザーとしてだけではなく、AIを活用して企業の価値と競争力を創造するとともに変革力を増幅すること。複数の基盤モデルをオープンにとらえ、信頼できるデータでAIリスク/ガバナンスを可視化し、お客さまの具体的なビジネス課題の解決を支援していく」と力を込めた。
watsonx.governanceの詳細が明らかに
続いて、日本IBM テクノロジー事業本部 Data and AIエバンジェリストの田中孝氏が製品の詳細についてプレゼンテーションを行った。同氏はwatsonx.aiでホストを開始したMetaのLLM(大規模言語モデル)「Llama 2」に触れつつ、9月中に提供予定のGraniteを説明した。
Graniteは前述の通り、デコーダーアーキテクチャを採用したIBM独自のLLMであり、要約や質問応答、分類などビジネス領域のタスクを実行でき、コンテンツ生成、洞察抽出、RAG(Retrieval Augmented Generation:検索により強化した文章生成)、固有表現抽出といったそのほかの自然言語処理(NLP)タスクをサポート。
「NVIDIA Tesla V100 32GB」のシングルGPUで利用でき、他社の巨大なモデルに比べて軽量で効率的かつ環境負荷を抑えることが可能。ビジネスユーザーのニーズをターゲットに、インターネットや学術、コード、法務、財務などの領域のデータを使用してモデルを学習させている。
田中氏は「当社独自の基盤モデルにはビジネスの文脈を意識した学習データを使うだけでなく、モデルを構築する際のデータの信頼性確保に注力している」と話す。そのため、Graniteは、厳密な規範によるデータ収集と独自の言語モデル「HAPディテクター」による精査、幅広い品質評価により実現しているとのことだ。
こうした、モデルを構築する際の信頼性確保に加え、同社ではモデルの活用・運用における信頼性担保としてwatsonx.governanceを提供している。具体的にはモデルをビルドし、デプロイするときに精度、ドリフト、バイアス、説明可能性といった評価とモニタリング、ライフサイクルを通してモデルのファクトを把握するインベントリ、ワークフロー、ダッシュボード、インシデント管理を行うリスクガバナンスの各機能を提供する。
ユースケースと導入に向けた支援
現状において、効果を見込んでいる代表的なユースケースとしては「人事管理業務」「顧客対応」「システム更改・モダナイゼーション」「IT運用の自動化」の4分野を示している。
IT運用の自動化については、2023年第4四半期に提供開始予定でメインフレーム「IBM Z」上においてCOBOLからJavaへの高速変換を行うことで、開発者の生産性向上を支援する「watsonx Code Assistant for Z」を発表している。
今年後半に提供開始予定の複数のサーバやマルチクラウドの構成管理を生成AIで支援する「IBM watsonx Code Assistant for Red Hat Ansible Lightspeed」と併せて、watsonx Code Assistant製品ファミリーに新たに加わる。
一方、自然言語やプログラミングコードのみならず、企業でのAI活用を支援するさまざまなモダリティの基盤モデルの開発に取り組んでおり、NASAと共同でHugging Face上にオープンソースの地理空間基盤モデルを提供している。
このように、さまざまな角度から基盤モデルの構築、運用を支援するための、製品・サービス提供を目指すIBMだが、顧客自身が十分に活用するにはハードルが多少高く感じる。
そのため、同社では1カ月程度の無償技術検証プログラムを用意している。田中氏は「watsonxを単に提供するだけでなく、お客さまのビジネスをどのように変革できるかを議論し、PoCモデルを作るまで伴走するようなアプローチだ。新しい領域のため、お客さま自身もクリアなイメージがないため、最初の一歩を支援するアプローチとなる」と強調していた。
ITシステム部門でもAIの活用を
最後に説明に立った、日本IBM 執行役員 IBMフェロー IBMコンサルティング事業本部 CTOの二上哲也氏は「AI活用を前提としたITのあり方を考える時代になっている。当社はIT変革のためのAIに注力しており、まずはプロダクト開発ライフサイクルにおけるAIの活用を想定している。システム更改・モダナイゼーションからIT運用の自動化までをAIで変革していくことを支援する」と述べた。
ソリューション例として同氏は、システム更改・モダナイゼーションではwatsonx Code AssistantとAnsible Lightspeedで基盤構成管理のコード生成やwatsonxの基盤モデルとローコード開発ツールを組み合わせた基幹システムで活用可能なコード生成など、IT運用の自動化ではAIを活用したIT運用サービスによる運用、「IBM BlueBuddy」でデジタルワーカーによるIT運用の高度化などを、それぞれ挙げている。
二上氏の説明で、とりわけ目を引いたのはIBM Bluebuddyだ。これは、トラブル発生時に単に回答するだけでなく、インシデントの概要を要約した文章の生成や過去の対応実績から最適な担当者を推薦し、解決方法を提案してくれるというもの。
こうしたソリューション例を示しつつ、二上氏は「システム更改・モダナイゼーションとIT運用の自動化は、ITシステム部門において特に注目されているAIの活用領域だ。数年以内にそれぞれの領域で30%の生産性向上を目指している」とコメントしていた。