日本IBMは12月4日、オンラインでAIとデータプラットフォーム「IBM watsonx」の製品で同1日に提供を開始した責任ある透明かつ説明可能なAIワークフローを構築する「watsonx.governance」について、記者説明会を開いた。
AI倫理とリスクに注意を払う必要性とは
まず、日本IBM 執行役員 兼 技術理事 AIセンター長の山田敦氏が同社におけるAI倫理への取り組みに関して説明した。山田氏は「AI倫理・リスクに注意を払う理由としては、AI技術の進化により高まるリスクと、AIに関する規制・ガイドラインの動きの2点が挙げられる」と冒頭に述べた。
AIリスクへの対応については、AIモデルの学習では入力時に著作権・プライバシー侵害、サイバー攻撃、AIモデルの利用に際しては入力時には情報漏えい、出力時には著作権・プライバシー侵害に加え、著作物として認められないといったことが懸念されている。
このようなリスクへの対応に関して、AIモデル学習では信頼できるモデルの選択や運用の監視、AIモデル利用は入力を利用されないサービスの選択や閉域網の構成、入力の監視、AIガバナンスの実践などが必要だという。
一方、規制・ガイドラインの動きとして、米国ではボランタリーコミットメント(自主的関与)に主要AIベンダー15社の協力や大統領令(Executive Order on AI)が発令されたほか、欧州では「欧州AI規制案」が欧州議会で可決、発行後2年間の移行期間を経て施行される。
そして、日本ではG7において「広島AIプロセス」、これ伴うセキュアなAIシステム開発のためのガイドラインを日本、米国を含む18カ国が同意し、同プロセスに歩調を合わせた「AI事業者ガイドライン」を経済産業省や総務省が製作を進めている。
こうした状況に対して、IBMでは「AIの目的」「データと洞察の所有権」「透明性と説明可能性」の3つのAI原則を定めるとともに、原則を支える基本特性に説明可能性、公平性、堅牢性、透明性、プライバシーを据えている。また、2018年にAI倫理委員会を中心としたAIガバナンス体制を構築すると同時に、リスク審査プロセスを定めている。
信頼できるAIを実現するために
次に、日本IBM テクノロジー事業本部 Data and AI テクニカルセールス watsonx Client Engineeringの竹田千恵氏がwatsonx.governanceを解説した。
竹田氏は、その特徴について「業務に応じた基盤モデルの選択を可能にするとともに、機密性の高いデータも安全に扱うことが可能。透明性や説明性、公平性を重視し、信頼できるAI実現できる」と力を込めた。
続けて、同氏は「当社におけるAIの領域は、一般向けのLLM(大規模言語モデル)のAI利用者ではなく、当社はwatsonxを用いて信頼できるAIで自社のノウハウや固有のデータを学習させることで、競争力を増幅するAI価値創造企業を目指している」と話す。
同社では“信頼できるAI”を実現するために、デコーダーアーキテクチャを採用した独自のLLM「Granite」を提供し、NVIDIA V100のシングルGPUによる処理は、他社の巨大なモデルと比較して効率的かつ環境負荷を低減するという。データはインターネットや学術、コードに加え、法務、財務などの領域もカバーし、具体的なビジネスニーズをターゲットにしている。
さらに、独自の基盤モデルの信頼性確保にあたり、同社のAI原則である信頼と透明性を軸とした学習プロセスを確立。例えば、データセットは定義されたガバナンス、リスク、コンプライアンスのレビュープロセスを経て収集するほか、独自の言語モデル「HAPディクター」により、憎悪的で冒涜的なコンテンスを検出・除去が可能。
そのほか、Graniteはデータソースやデータガバナンスをはじめとした技術仕様に関する詳細を公開し、透明性と責任あるAIへのコミットメントを示しているとのことだ。
watsonx.governanceで実現できること
そして、改めて竹田氏はwatsonx.governanceについて、データとAIガバナンスの両方を包含するツールキットであり、責任ある透明で説明可能なAIワークフローを実現可能だと強調する。
加えて、AIガバナンスを運用するためのツールやアプリケーションを体系的に統合し、データセットの出自、AIモデルのメタデータ、パイプラインを文書化することでAIライフサイクル全体を統制するという。
さらに、ワークフローの自動化により公平性・バイアス、ドリフト(性能劣化)の能動的な検知を行うことでリスクを管理して企業の信頼を保全できるほか、増加する規制を適用可能なポリシーに変換し、組織が倫理基準を満たすための仕組みを提供するとしている。
同社では信頼できるAIのガバナンスを提供するため、watsonx.governanceではAIライフサイクルの見える化として、ライフサイクルを通じてモデルの実態を把握する「インベントリ管理」、リスクや課題管理のためのワークフローダッシュボードを提供する「リスクガバナンス」、モデル精度、ドリフト、バイアス、説明可能性の評価と継続モニタリングの「評価とモニタリング」を提供する。
竹田氏は「信頼できるAIを確保するためには、通常の構築からデプロイだけでは十分ではない。watsonx.governanceは、どのようなデータでどのような結果だったのか、それに対して法規制対応との整合性しているのかを同期し、これら2つを継続的に評価、モニタリングすることができる」と説明した。
インベントリ管理ではモデルの作成日時やトレーニングデータの出自、検証データの精度デプロイの情報、公平性の成果などを保管し、使用されなくなったモデルの廃棄を追跡する「モデル廃棄業務フロー」を備えていることに加え、生成AIについてはユースケースごとのAIモデル、オーナー、属性などを一元的に管理するとともにリスクの高いモデルには注意喚起を促すことができるという。
リスクガバナンスは、複数のプラットフォームからAIモデルの統合管理画面を表示し、開発状況やAIモデルの性能、アラート、新たな問題を表示するほか、AIモデルの検証、再トレーニング状況、パフォーマンスの問題を監視することを可能としている。
評価とモニタリングでは、性能モニタリングとしてAIの予測の追跡で説明可能性の確保やバイアス検出・緩和、品質の閾値やKPIに違反した場合に問題を通知。変更・課題管理に関してはAIモデルに関連した問題やインシデントを追跡、モデルの変更を文書化することで承認する業務フローを提供。
品質メトリクスにはテキスト要約や分類、コンテンツ生成、Q&A、エンティティ抽出など、ユースケースに対するLLM評価メトリクスを含み、安全性の測定基準には入力・出力の両方における有害言語と個人識別情報のモニタリングを含んでいる。
竹田氏は「当社がAIに対する信念はオープン、信頼、明確な対象、力を与えるの4つであり、watsonxプラットフォームを使い、お客さまのニーズに合った生成AIや機械学習の価値創造を届けていきたい」と説明会を結んだ。