日本総合研究所(日本総研)は1月18日、ヘルスケア事業者が生成AI(人工知能)を活用するためのガイドラインを策定し公表した。

生成AIの活用が進むヘルスケア領域

ヘルスケア領域において、生成AIは、医学論文や高度な医学専門文書の要約のほか、患者への説明文案の生成など、医師の業務効率化をサポートするための利活用が急速に広がっているという。また、患者と医師の会話における文脈を理解しながら診療記録を生成するAIや、対話を通じて利用者個々に最適な健康増進行動を提案する対話型AIなど、より高度なサービスについての開発も積極的に進められている状況だ。

一方で、生成AIがもたらす副作用についての指摘も増えてきた。例えば、一般的なデータで学習したモデルでは学術用語や専門用語などを正しく扱えず、生成されたアウトプットが不確かな情報である可能性がある。

そうした中、内閣府は「AI事業者ガイドライン案」を2023年12月21日に公表。しかし、ヘルスケア領域は、機微性の高い要配慮個人情報を取り扱うため、一般的なガイドラインとは別に、業界固有の社会的責任やリスクを十分に考慮した取り組みが欠かせないと同社は指摘する。

  • Photo:nonpii / PIXTA(ピクスタ)

    Photo:nonpii / PIXTA(ピクスタ)

生成AI活用で留意すべき4つの事項

日本総研が独自に策定したガイドラインには生成AIを活用したサービスを設計・開発・提供する際に留意すべき事項を4つにまとめている。

1つ目は、活用する基盤モデルの選定だ。生成AIの基盤モデルについては、現在、数十種類が利用可能とされており、クラウド型やローカル型、汎用型や専門特化型など多種多様な基盤モデルが開発されている。ただし、基盤モデルは学習データの内容が異なる、商用利用が制限される場合があるなど、各モデルによって特徴や用途・性能が異なる。同ガイドラインでは、基盤モデルの特徴や用途・利用可能範囲を事前に確認・判断し、適切なモデルを選定する方法について解説している。

2つ目は、さまざまな場面での適切なデータの取り扱いに関する事項。生成AIの設計・開発・提供においては、「追加学習させるためのデータ」「新たなタスクを学習させるための少量のサンプル・事例データ」「利用者が入力する質問データ」といった多様なデータの取り扱いが発生する。その際に必要な、要配慮個人情報や著作権の扱い、目的外利用を防ぐ対策などのさまざまな留意事項について解説している。

3つ目は、アウトプットの信頼性確保や利用者への適切な説明。生成AIからは、事実と異なる内容が出力されるケースが存在することもある。そこで同ガイドラインでは、技術面や仕組面でアウトプットの信頼性を確保するための制御を開発段階から行うなどの工夫について解説。また、利用者の理解度やリテラシーが十分でないことを前提に、適切な利用に向け、生成AIの性質や特徴をあらかじめ伝えるための丁寧な説明・表示の方法についても説明しているという。

4つ目は、ヘルスケア領域での規制面について。生成AIを活用した機能やサービスが、医療機器プログラムに該当するケースも存在するといい、その際に必要となる、適切な該当性判断と規制、また、適切な広告表現や表示を行うための規制について解説している。

なお、同ガイドラインは、ヘルスケア領域で広く活用されていると考えられる文章(テキスト)生成AIを対象としている。同社はガイドラインを適宜見直し、事業者がタイムリーに適正なサービスを提供できるように取り組んでいく予定だ。