AIの利活用の広がりとともに重要とされるのがAI倫理である。「AI利活用を加速するのがAI倫理」だと話すのは、ソニーグループ(以下、ソニー) AIコラボレーション・オフィス 担当部長 AI倫理室 統括課長(登壇時)で、経団連 デジタルエコノミー推進委員会 AI活用戦略タスクフォース委員の今田俊一氏だ。
7月18日に開催されたウェビナー「TECH+セミナー AI Day 2024 Jul. AI浸透期における活用法」で、同氏がソニーにおけるAI倫理活動の目的や内容について説明した。
AIは人間のクリエイティビティの置き換えではなくサポート
ソニーはパーパスに「クリエイティビティとテクノロジーの力で、世界を感動で満たす」を掲げている。このパーパスの下、ソニーは「テクノロジーに裏打ちされたクリエイティブエンタテインメントカンパニー」をアイデンティティに据え、「人に近付くという方向性で事業を展開している」と今田氏は説明する。
さらにこのパーパス、アイデンティティをベースに、「感動体験で人の心を豊かにする」「クリエイターの夢の実現を支える」「世の中に安全・健康・安心を提供する」という3つの創出価値を目指している。
それを実現するための事業として、ソニーでは、ゲーム&ネットワークサービス、音楽、映画、エンタテインメント・テクノロジー&サービス、イメージング&センシング・ソリューション、金融の6つ事業を展開している。
これらの事業分野において、ソニーはAIを「人間のクリエイティビティを代替するものではなく、サポートするもの」(今田氏)と位置付け、適用しているという。カメラであれば、撮影におけるフォーカス機能の向上、映像・音声編集の効率化、テレビやヘッドフォンであればコンテンツ体験の質の向上などに活用しているそうだ。この他に、ゲームに特化した独自の音声認識ソフトウエアを使い、登場するキャラクターのセリフに合わせて一部言語で字幕のタイミングを自動同期させることで制作工程を短縮するなどの使い方も始めている。
2020年にはソニーグループの一員として「Sony AI」(現ソニーリサーチ)を設立し、エンタテインメント分野でのAIとロボットの基礎研究開発を加速させた。具体的には、AIゲームエージェントの開発や、ロボティクス、イメージングとセンシングなどのプロジェクトを進めており、AI倫理はそこでも中核となると同氏は話す。
AI製品・サービスの開発過程で直面する、倫理的なデータ収集、アルゴリズムの公平性などの課題に対しても、2021年にプロジェクトを立ち上げて研究しているという。
今田氏はAI倫理のアプローチとして、「公平性、透明性、アカウンタビリティなどの責任ある技術を通じて、持続可能な社会のためのAI開発を目指している」と語る。事業と研究開発を進める上での価値観の1つが「高潔さと誠実さ」だ。このような価値を実践するために、「ソニーグループ行動規範」においても「責任をもって技術を活用する」ことを掲げ、”責任あるAI”こと「Responsible AI」を推進しているそうだ。
AI倫理への取り組み、原則から実践へ
今田氏によると、ソニーが目指すAI倫理の方向性は、以下の4つだ。
では、具体的にどのように取り組んでいるのか。「原則から実践へ」として同氏が示したチャートは、AI倫理ガイドライン、AI倫理委員会、AI倫理専門組織の設置、教育・啓発活動、AI倫理ガイドライン遵守のためのアセスメントといった要素を含む。
AI倫理ガイドラインは2018年に策定したもので、「豊かな生活とより良い社会の実現」を目的に、安全性、プライバシー保護など7つの原則から成る。ソニーの全役員・従業員がAIの活用や研究開発を行う際の指針となるものだという。
このガイドラインの遵守のために、2019年にAI倫理委員会を設置。AI利用案件の事前審議や提言・サポートを行っている。この委員会の下でAI倫理に関する専門知識を提供する中心的な役割を果たすのがAI倫理室だ。同室は本社組織として2021年に設置された。
そして、教育・啓発活動として、eラーニング、技術研修、ワークショップ、社内フォーラムなどを通じ、従業員のAI倫理に関する理解を深めている。このような啓発の下、実践としてのガイドラインを遵守するために、2021年3月より、まずはエレクトロニクス製品より、品質管理システムを用いてAI倫理ガイドラインの遵守を確認するプロセスを確立している。
「2022年以来、すでに100件以上の評価を実施しています」(今田氏)
エレクトロニクスは第一歩であり、今後は金融やエンタテインメント分野にも展開する予定だ。
AI倫理のアセスメント、設計段階からのAI倫理
原則から実践の要素のうち、AI倫理のアセスメント実践を詳しく見てみよう。
今田氏によると、ポイントは「AI Ethics By Design」である。“設計の段階からのAI倫理”といった意味だが、「リスクの特定と対策は開発のライフサイクルの初期段階から行う必要がある。後段になってからのリスク抽出は対応が難しい」と同氏はその意図を説明する。
ここでは企画、開発、量産、発売とそれぞれのフェーズにおいて品質マネジメントシステム(QMS)のプロセスに応じてAIの品質を含むAI固有の倫理、リスクなどを確認し、対応していく。その過程において、「アセスメント用のツールとしてのドキュメントを整備したり、既存の社内の規則やそれに応じた他のアセスメントとも連携したりして、AI倫理ガイドラインの遵守を確認していく」と続けた。
取り組みは社内に閉じたものではなく、社外での活動も含まれる。具体的には、外部の企業、政府や団体、学術コミュニテイと協力しながら進めるというもので、2016年に立ち上がった「Partnership on AI」にも参画。AIをより良いかたちで社会実装するための原則や指針づくりに取り組む「Global Partnership on Artificial Intelligence」では、ワーキンググループの構成員を務めているという。
国内では、2019年の内閣府の「人間中心のAI社会原則」、2023年に 経団連が公表した「AI活用戦略 II」などの検討・議論の場にも参加している。
見えてきた課題:テクノロジーと社会需要のバランス、国際調和など
今田氏は最後に、これまでのAI倫理活動を通じて感じているという課題認識として大きく4つを挙げた。
1つ目は「テクノロジーと社会受容・実装のバランス」であり、「イノベーション対倫理と言い換えることもできる」と言う。自動車、原子力など過去にも同様の課題と挑戦があったとしながら、データの権利問題、学習データにまつわるデータのサプライチェーンなどのAI固有の課題を挙げた。
2つ目は「ルールの国際調和」だ。上記のような問題に対して、「現在のAIの開発、倫理的なイシューやソリューション、共に議論を主導しているのは欧米の企業や政治団体であり、日本やアジアでは概念が異なる面もあることから国連などの枠組みに入って議論に参加していくことが重要」との考えを示した。
3つ目は、「ステークホルダーとのエンゲージメント」である。映画、音楽、ゲームなどの事業をもつソニーのステークホルダーである、アーティストやクリエイターなどとの関わりだ。例えば、写真家の懸念の1つにフェイク画像がある。これに対して画像の真正性を証明するソリューションへの取り組みなどを進めているという。
4つ目は「Principle to Practice」、原則を実践に進めることだ。同氏はこのような取り組みを通じて、「責任あるAIの価値向上に努めていきたい」と述べ、講演を結んだ。