生成AIが急ピッチで普及している。個人だけでなく、業務でも使われるようになり、AIの専門家や「ChatGPT」のOpenAIでCEOを務めるSam Altman(サム・アルトマン)氏もリスクについて警告している。
データがプロバイダーに収集される可能性
世界経済フォーラム(WEF)が企業や組織がどのように準備すべきかを提言している。WEFの調査では、75%の企業や組織が採用など、人事目的を中心にAI技術を利用しているという。
しかし、AIは完全ではない。データに偏りがあれば、偏見や差別のある結果を招く可能性は大いにある。データのプライバシー、機密性の高いデータを用いることで漏えいのリスクもある。
例えば、生成AIのツールに投入されるデータが、技術を提供するプロバイダーにより収集されることを想定しておく必要があり「場合によっては、これらプロバイダーは入力されたデータの使用や開示する権利を持つことになる」という。
「生成AIは、外部プログラムのインプットとアウトプットの両方における所有権、それに伴う著作権侵害の懸念が出てきている。知的財産権について考慮する必要が新たに出てきている」とのこと。実際、米国では生成AIのIP訴訟が起きているようだ。
Baker McKenzieが2022年に北米で行った調査では、ビジネスリーダーは組織におけるAI関連のリスクを過小評価していることが判明した。
CXOレベルの回答者のうち、AI使用に関連するリスクを「重大」と考えている人はわずか4%、取締役レベルでAIの専門知識があるという回答は半数以下だったという。
このようなことから「AIに対する準備は不十分」とし、リスク管理で中心となる意思決定者側に専門知識が不足しているため「AIを倫理的かつ効果的に導入するための組織の盲点により、変革の機会を隠してしまい、急ピッチで成長するAIのスピードについていけなくなる可能性がある」とのことだ。
企業はAIに対して、どのような準備が必要か
ではどのように準備すべきか? WEFのアドバイスを以下にまとめている。
1つ目として、現在AIイニシアティブはデータサイエンティストなどデータチームが中心で進められているが、CXOレベルの経営陣、取締役会、法務部門、人事など、関係する人・部署が意思決定プロセスを通じて関与する必要があるとする。
2つ目は、AIガバナンスの作成。「AIガバナンスの仕組みがなく、主要な関係者による監視がなく、サードパーティのツールに全面依存している場合は、法的責任が生じるような方法でAIを使用するリスクが出てくる」という。
それに関連して、偏見への対策も必要だとする。バイアスへの対策として、導入前および導入後のテストを計測することを推奨している。
最後にWEFは、AIは多くのメリットをもたらすものとしながら「導入ペースが高速であるため、責任のある使用とリスク軽減のためには戦略的な監督体制とガバナンスが重要になる」としている。
一連の提言は、WEFの「How can organizations prepare for generative AI?」と題した記事によるものだ。
AIは革命的なものと言われる。AIの時代に向けて準備を整えることは、企業が次の成長に向けて準備を整えることにつながるといえそうだ。