AIを活用し、新規サービスの提供や既存サービスの品質向上、業務効率化などを狙う企業が増えている。セブン銀行でも積極的にAIを活用した取り組みを推進。国内だけでなく、海外でも成果を生み出しているという。だが、AI活用の背後にはリスクも潜んでいることを忘れてはならない。ではセブン銀行は、AIのリスクに対し、どのような考えの下、対策を行っているのだろうか。
今回は、セブン銀行 コーポレート・トランスフォーメーション部 部長の中村義幸氏と、AIのリスク評価・管理プラットフォーム「Robust Intelligence」を提供するロバストインテリジェンス 日本事業責任者の平田泰一氏にお話を伺った。
ビジネスインパクトを重視して進めるAI活用
中村氏によると、セブン銀行はAIに対し、「攻めと守りを両立しながら、クイックに活用領域を広げていこう」という方針なのだという。業務効率を上げるための生成AI活用については2023年8月から開始し、今年6月には内製開発による自社独自の生成AI利用環境「7Bank-Brain」をリリース、試運転をしながら、ガイドラインの整備など、ガバナンス強化に取り組み、全社員への展開を目指している。
自社でモデルを開発するAI活用において重視するのは、小さな社内業務の効率化ではなく、「ビジネスインパクトの大きさ、PLに貢献するか否か」だと中村氏は話す。その一例として同氏が挙げたのは、非生成AIを用いたATMの設置候補地の利用件数予測モデルだ。セブン銀行は店舗を持たず、ATMを主力とするビジネスモデルである。そのため、ATMの設置数を効果的に増やしていくことがビジネスインパクトに直結する。そこで人流データと過去の利用実績などのデータを用い、AIで設置候補地を予測、実際に地図上にプロットしたものを基に、営業メンバーが候補地にアタックする手法を採用。インドネシアではさらに高度なモデルを構築しており、現地に赴き実地調査をすることなく、地図情報のみで設置候補地の利用件数を予測できたそうだ。
避けては通れないリスクも……
しかし、この利用件数予測モデルにも“落とし穴”がある。例えば、AIが学習したデータと実際に運用中に処理するデータとの間に統計的分布の大きな乖離が生じた場合だ。その代表格がコロナ禍である。コロナ禍前と後では人の流れが大きく変わった。ATMを利用する主な場所はオフィス街から住宅街へと変化したのはその一例だ。結果として、「コロナ禍前のデータで学習を行ったAIの件数予測の精度が大幅に下がった」と中村氏は言う。
この点について平田氏は、金融ショックやコロナ禍といった大きなイベントが発生すると、「イベント後に非生成AIの予測精度が劣化し、そのまま使うことができなくなることがある」と説明。この現象は「ドリフト」と呼ばれている。AIにはこのようなドリフトや、差別を引き起こすバイアスなどのリスクが存在し、それらを検知するために、「リスク管理が必要になる」と続けた。
そこで、セブン銀行でもAIによるリスクを管理するため、2022年からリスク評価・管理プラットフォーム「Robust Intelligence」を導入。 前述のATMの設置候補地の利用件数予測モデルにおいても、このプラットフォームを用い、データの分布の変化などを検証している。
もちろん、プラットフォーム導入以前に、リスク管理をしていなかったわけではない。中村氏によると、セブン銀行のデータサイエンティストは自分たちでモデルを開発し、検証のプログラムも自分たちでコーディングしていたそうだ。そして、ドリフトやバイアスがないかを検証するだけでなくAIモデル開発のチェックリストも運用している。しかし、そこにも課題はあった。
「検証するためのコーディングに時間がかかる上、果たしてその検証プログラムが正しいのかという品質の観点も課題となっていました。また、データサイエンティストたちからすると、チェックリストを1つずつ確認する面倒さもあったと思います。部門の責任者としても、データサイエンティストにはセブン銀行の事業を成長させるためのAIモデルの開発に集中してほしい。そこでそのような課題の解決のため、検証(レッド・チームテスト)の自動化を可能にするRobust Intelligenceを導入することに決めました」(中村氏)
Robust Intelligenceが考えるリスク管理とは
実際、本格稼働した同プラットフォームについて、データサイエンティストからは「AIの検証が自動化されて便利」と良い反応が出ているという。では、Robust Intelligenceの強みはどこにあるのか。
平田氏はその特長をフレームワークの強さ、研究知見の深さ、テストケースの多さだと話す。2019年に米国ハーバード大学の研究所でコンピューターサイエンス教授(当時)のYaron Singerと共同研究者のKojin Oshibaによって創業されたRobust Intelligence社は、当初から、AIリスクの解決に取り組むソリューションの開発を目的としてスタートした。そこに、長年AIリスクの開発・研究に取り組んできた世界トップクラス人材がGoogleやMicrosoft、Metaなどから集まり、まだ世界がAIリスクに関心を抱かなかった頃から真剣にこの問題に取り組んできたという。そのため「最先端で世界標準のAIフレームワークをつくることができており、検証のケース数や品質も高水準で、AIのビジネス活用に関するアドバイスの知見も深い」(平田氏)のだそうだ。さらに、現在、世界中の生成AIの技術者に支持されているオープンソースライブラリであるLangChainやLlamaIndexも、実は創業者がRobust Intelligenceから輩出されていると同氏は話す。こうした背景があるからこそ、AIリスクを多様な観点から頑健に検証できるという。
「AIリスクを十分に検証するための数百のテストケースを各社が自ら構築し、検証することは、技術的な難易度が高く、コスト面からも採算が取れないため、現実的ではありません。当社の強みは、最新のAIリスク研究・AIガバナンスの知見に基づき、検証を自動で実行できるレッドチーム・テストを提供していることです。生成AIと非生成AIの開発運用のいずれにも対応しており、多くの企業のAIリスク管理のニーズを満たすことができます。大変ありがたいことに、すでに日本市場でも多くのお客さまにご利用いただいております」(平田氏)
さらに、各国の政府機関や研究団体などと連携しており、国際標準化に向けた取り組みにも関与している。例えば、MITREとのAIリスクデータベースの共同開発や、NISTとのAIに関する敵対分類法の共著、OWASP Top 10 for LLMの共同執筆を行うなど、AIリスク対策の底上げにも寄与していると平田氏は説明。今後、日本市場においては3年程度で100社ほどの導入を目指すとした。
「(Robust Intelligence社のプラットフォームは)AIに対する”守り”の製品ではありますが、守りを徹底することで、AIの積極的活用という攻めに転じることができると考えています。特に生成AIのリスクは質的にも量的にも無限大という世界です。個人情報の流出、ハルシネーション、有害な出力などのAI活用を阻む懸念事項がありますが、これらを開発段階から検証し、運用段階でリアルタイムに監視することができれば、人の目を介すことを大幅に削減し、ビジネスでも積極的にAIを活用していけるでしょう。当社の存在意義は、AIの活用に伴うリスクから企業の皆さまを解放し、AIトランスフォーメーションを後押しすること。攻めるために守りを固めるという信念を掲げ、日本企業の皆さまをサポートしていきます」(平田氏)
情報共有で、業界全体の底上げを
平田氏のコメントを受け、中村氏も「弊社の社長(代表取締役社長 松橋正明氏)は、うちを(金融機関であり)IT企業だと言っている」としたうえで、「AIという技術革新をリスクを取り除いて安全に採り入れ、お客様により良いサービスを提供するために、使えるものを増やしていきたい」と話す。
現在進めているビジネスインパクトの大きい取り組みとして、セブン‐イレブンやイトーヨーカドー、専門店などグループ内各社で使える共通の会員サービス「7iD」のデータとセブン銀行口座の連携がある。小売データと金融データを組み合わせることで、「より大きな成果を上げていきたい」と中村氏は言う。また、これまでのAI活用で得られた知見をオープンにし、他の銀行でも活用できるようにする取り組みも進めている。
「皆さんで一緒に得られた知見を共有し、さらにレベルの高いところを目指していきます」(中村氏)