生成AIは第4次AIブームとして社会に深く浸透しつつあるが、企業が独自のAIモデルを開発・運用していくにはさまざまなリスクと向き合うことが求められる。AIの存在が当たり前になっていく昨今の状況において、この時点での躊躇や先送りは大きな遅れにつながるだろう。

生成AIの利用には正確性や信頼性以外にも5つの懸念がある。学習データの偏りによる「バイアスの存在」、応答の根拠説明が困難な「ブラックボックス化」、機密情報の意図せぬ「データ流出・移転」、他者の権利との酷似による「著作権・知財権侵害」に対する懸念、そしてAI処理の用途や生成物の公開が取引先、顧客、社会一般に受け入れられるかという「倫理・社会受容性」のリスクだ。

日本IBM 提供資料
AI活用の「リスク」にどう向き合う? 覚えておきたい「AIガバナンス」構築の手法
> > 資料の閲覧はこちら

AIガバナンスの実践フレームワーク

ガバナンスの構築が企業の競争力を左右する時代において、AI活用のリスクにどう向き合うべきか

官民を問わず世界各国でAI発展に伴う社会課題への議論が展開される中、日本では2022年に経済産業省が「AI原則実践のためのガバナンス・ガイドライン」を示した。これはアジャイル・ガバナンスのフレームワークを用いて、自社の状況や目標を踏まえてリスク分析を行い、開発標準の策定など必要な対応を具体化するものだ。

2024年には総務省と経済産業省により「AI事業者ガイドライン」も策定され、広島AIプロセスに基づく国際的なルール作りが推進されている。その最も大きな論点が「公平性」「説明責任と透明性」である。企業はAI開発の企画段階から複数の視点で差別的な生成物になっていないかを検証し、運用段階でもモニタリングを継続することが求められる。また、生成物の根拠を詳細に説明することは困難だが、学習データの投入方針を丁寧に開示していく姿勢も重要となる。

*  *  *

リンク先のコンテンツでは、AIガバナンスを構築する際の具体的な手法として、経済産業省のガイドラインに基づく実践ステップを詳しく紹介している。AI活用の推進、法規制への対応を両立した枠組みの構築は喫緊の課題といえる。早期に着手するためにも、ぜひ参考にしてもらいたい。

資料のご案内

日本IBM 提供資料
AI活用の「リスク」にどう向き合う? 覚えておきたい「AIガバナンス」構築の手法
> > 資料の閲覧はこちら

[PR]提供:日本IBM