米国で初のAI規制が発令されたが、AIベンチャーは変わらず活発な開発競争を繰り広げている。安全なAIツールの開発・利用を実現するための次のステップは何なのか。いくつかの企業や組織が、食品栄養表示のように理解しやすいラベリングの取り組みを開始している。

投資家を慌てさせたのは大統領令よりも サム・アルトマン氏の電撃解任

前回紹介したように、10月末に、米国で初のAIを対象とした法的拘束力を持つAI規制が発令された。しかし、それでAIベンチャーに資金を投じる投資家の意欲が削がれているかというと、そんなことは全くない。それよりも投資家を慌てさせたのはOpenAIのCEO、サム・アルトマン氏が理事会から電撃解任された出来事である。

つまり、そういうことなのだ。規制を含む大統領令は、AI開発の動向を監視する方向性を示したという点で評価されているものの、具体的な実施内容はまだ不透明なものが多く、今のところ規制がAIブームの減速要因になるとは考えられていない。それよりも、OpenAIのお家騒動の方が今の生成AI市場に大きな影響を与えると見られている。

例えば、膨大な既存コンテンツをAIが学習し、コンテンツ生成に利用されることに対し、音楽の違法ファイル共有問題との類似性を指摘する声があり、法的紛争も起きている。しかし、米国の著作権法にはフェアユース(公正な利用)規定があり、著作物の潜在的な市場に悪影響を与える可能性などを鑑みて、その時々の新サービスが合法か違法かの判断を裁判所が下す。新市場を育むことにも重きを置いた制度になっている。

AI学習の情報解析では、データを盗用したり、コピーして利用することはなく、従来の意味でのルックアップテーブルを持つデータベースもない。コピーや盗作とは似て非なるものという見方が優勢であり、加えてMicrosoftやGoogle、Amazonといったテック大手の関与がベンチャーキャピタリストを強気にさせている。テック大手は著作権の問題を含めて十分に調査した上で、AIベンチャーに数億ドル規模の小切手を切っているはずである。

大統領令では、商務省に対してAIが制作した作品に「透かし」を入れる制度を設けるよう指示するなど、ラベリングの導入で前進があった。米国議会でも、AIが生成したコンテンツの「明確かつ目立つ」表示をあらゆるメディアタイプに求めるAIラベリング法案を提出されている。支持者は、人の仕事とAIの仕事を明確に区別することで、今後予想される合成映像、音声、画像、テキストの氾濫に対処するのに役立つと主張している。

しかし、現状を鑑みると、人かAIかを区別する単純なラベリングの効果は限定的だ。AIチャットボットが完全に代筆したエッセイなら「AI作成」だが、アイディアのブレーンストーミング、代替案のスケッチ、アウトラインの穴埋め、文章の手直しなど、共同作業者としてAIツールを使っていたらAI作成の境界はあいまいになる。

そして、実際にはAIと共同作業することの方が多く、AIを人のヘルパーとして利用する方が優れた成果が得られる。例えば、この業界ではすでに多くの媒体がニュース記事の作成にAIを導入しているが、全てをAIが作成した記事は読者を引き付ける工夫に欠ける。

そうした記事を量産するよりも、記者が書いた記事をAIに校正させたり、表現などを提案してもらうことで、質の高い記事の生産性が向上する。これはAIの悪用も同じで、本物そっくりをAIが作成できることだけがリスクではない。悪意のある人がAIでより巧妙になれるリスクの方が、私たちにとってより身近で怖いものなのだ。

AIレーティングシステムでChatGPTは「3つ星」のみ

モバイルデバイスやPCがAIプロセッサを備えるようになって、あらゆるソフトにAIヘルパーが組み込まれるようになった。オートコンプリート、スペルチェックや文法チェック、スマートフォンでの撮影、画像のリサイズ、通話の環境ノイズ除去など、私たちが日常的に使用している様々な機能にAIが用いられている。AIは私たちのあらゆる作業に編み込まれており、人かAIかという単純なラベリングは有効な解決策になり得ない。

  • 「生成AIは、特に子どもにとっては創造的な探求に適しており、質問に対して一貫して事実に忠実な回答をするようには設計されていないことを理解しなければならない」と、Common Sense AI評価のプロジェクトを率いる元GoogleのTracy Pizzo Frey氏。

    「生成AIは、特に子どもにとっては創造的な探求に適しており、質問に対して一貫して事実に忠実な回答をするようには設計されていないことを理解しなければならない」と、Common Sense AI評価のプロジェクトを率いる元GoogleのTracy Pizzo Frey氏。

11月16日に非営利組織Common Sense MediaがAI製品の倫理的使用、透明性、安全性、影響を評価するAIレーティングシステムを公表した。以下は、その時点における主なAIサービスのレーティングだ。

  • Common Sense Mediaが、子どもと家族の安全を優先した「Common Sense AI Principles」に基づいたAI評価を公開

    Common Sense Mediaが、子どもと家族の安全を優先した「Common Sense AI Principles」に基づいたAI評価を公開

MicrosoftやOpenAIが、より多くのデータを学習するほどに優れたAIモデルになると主張しているのに対し、Common Sense Mediaは「特定のAIツールのトレーニングに使用されるデータが多いほど安全性が低くなる可能性が高い」と指摘している。

GoogleのBardとOpenAIのChatGPTは、3つ星しか獲得できず、プライバシーに関してはそれぞれ75%と48%だ。総合で5つ星、最も高いスコアを獲得したのは、AIを活用した小学生向けの算数家庭教師「Kyron Learning」だった。

Common Sense MediaがレビューしたAIツールの中でも、最も好ましいツールは熟考を重ねてキュレートされたデータセットを使って学習し、特定の利用者やコンテクスト向けに設計されている。だから、公開されているコンテンツをかき集めた大規模なデータセットによる大規模言語モデル(LLM)の開発はやめるべきと呼びかけているわけではない。

ChatGPTが小学生の勉強に使えるからといって小学生に自由に使わせるのはリスクが伴う。小学生の学習に安全に利用できるAIがあるのだから「それを使わせるべき」というのがポイントだ。

そのためには、AIがどのように利用するためのもので、どのように機能するかを、誰でも簡単に理解できる仕組みが必要になる。Common Sense Mediaは、自身のAIレーティングを「栄養成分表示(nutrition label)」と表現している。

AIにラベルを貼って透明性を高めようとしているのはCommon Sense Mediaだけではない。企業では、SalesforceやTwilioが、生成AI製品が顧客データをどのように利用しているかを顧客に明示するためのラベリングに取り組んでいる。同様に、IBMも独自のラベルの取り組みを開始した。

今、AI企業の多くがAI開発の透明性を強くアピールしているが、それは技術的なものである場合がほとんどだ。しかし、AIがより活用される今後の世界では、非技術的な人や子どもでも、それらの製品がどのように機能するかを理解できる仕組み(ラベリング)が重要になる。

さらに、AI開発で大量のデータを学習するにしても、今日のような権利保有者が拒否したコンテンツを省く"オプトアウト"ではなく、安全のために何を含めるかにもっとの焦点を当てるアプローチをとれば、有害なコンテンツを生み出す可能性は低くなる。そうした方向に業界全体を導くことが、今後の争点になる。

それは、日本が望むべき方向ともいえる。日本はスーパーコンピューター「富岳」に代表される計算能力で独自の強みを持つ。大量のデータを学習させる競争では太刀打ちできなくとも、特定の目的のために作られた安全で信頼できるAIシステムの開発では、独自の価値で市場を切り開くことができるはずだ。