5月4日に、バイデン米政権はAIに関して、製品の安全性とセキュリティを確保するための責任は企業にあるとする政府方針を発表、Anthropic、Alphabet/Google、Microsoft、OpenAIのトップをホワイトハウスに呼び、倫理的に公正な形でサービス開発をするよう求めた。

倫理的、道徳的、そして安全を確認する責任が企業にあることを明確にした点は大きい。だが、AI開発に関わる企業に責任を踏まえた開発を促したに過ぎない。

米国は次世代技術のルールづくりにおいて、イノベーションの可能性を重んじ、解決すべき問題がある時に規制を設けるスタンスで出発する風潮がある。AIについても、EUでは法整備の議論が活発であるのに対し、米国はAIがもたらす経済成長のメリットに目配りし、自主的なガイドラインや自己規制を促す傾向が見られる。このように認識に違いがあるため、主要7カ国(G7)デジタル・技術相会合においても、「責任あるAI」の活用に向けて参加国の一致が得られたものの、ルール作りの具体論に踏み込むことはなかった。

破壊を恐れないアプローチを受け入れる気質によって、過去にいくつもの技術革新が米国で成されてきた。だが、AIに関しては警鐘を鳴らす声が上がっている。AI研究者でディープラーニングの礎を築き、AI研究の進展に多くの貢献を果たしてきたジェフリー・ヒントン博士がGoogleを退社し、自由に発言できる身になって、今の企業によるAI活用競争の激化の危険性を説いた。New York Timesのインタビューで同氏は、「5年前を思い出して現在の状況を考えてみてください。これをさらに進めていくと恐ろしいことになる」と述べている。

米国は来年2024年が大統領選挙の年だ。過去にソーシャルメディアを通じた誤情報や誤解を招く情報、陰謀論の拡散が選挙の結果に影響したことが、生成AIでも繰り返される可能性がある。Axiosによると、民主党支持者である元Google CEOのエリック・シュミット氏が選挙戦にAIを利用するためのAIツールへの資金提供を断念した。理由は不明だが、選挙にAIを活用することに関心を示していた同氏でも、技術に対する規制がなく、また社会に与える影響についての理解が不明確な今の状況から慎重な立場をとったと見られている。

「責任あるAIイノベーション」のために今できること

米政府は、今年の夏以降に政府指針を公表する予定だ。では、AIイノベーションの可能性を閉ざすことなく、かつ手綱を握り続けるためには、どのような策が考えられるだろうか。

例えば、The Informationでロディ・リンゼイ氏が、2019年7月にカリフォルニア州で施行されたボット透明法のAIへの拡大を提案している。セールスや選挙などにおいてオンラインボットが人のように振る舞ってカリフォルニア州の住民をだますことを禁じる法律だ。人とボットのやりとりにおいて、ボットであることを明示的に表示することを義務付けている。

人間との会話とChatGPTとの会話に対する人々の認識を比べたスタンフォード大学の調査で、すでにボットの方がより人間らしいという評価結果が出ており、AIチャットボットが自らを人間であると誤認させる可能性が現実味を帯びている。オンラインボット対策として制定された法律をAIに拡大することについては、ロボコールやロボFax対策として1991年に制定された電話消費者保護法が後にテキストメッセージにも拡大された前例がある。結果、2010年代に自動テキスト送信キャンペーンを行った企業に対するTCPA(Telephone Consumer Protection Act)訴訟が急増し、大量のテキストメッセージによるマーケティングが一気に減少した。

AI生成の明示については、GoogleがGoogle I/O 2023で、AIが作った生成コンテンツに「電子透かし」や「メタデータ」を埋め込んで区別できるようにする安全対策を発表した。そうした取り組みが企業ごとの対策にとどまっていては、ディープフェイクのような問題の根本的な解決にはならない。Adobe、Arm、BBC、Intel、Microsoft、Truepic、Twitterといった組織が参加している「Coalition for Content Provenance and Authenticity (C2PA)」など、対策として有望な技術の開発は進んでいる。まずは政府が、警察官のボディカメラの映像や選挙に関する映像といった偽造や改ざんの可能性が高い分野、政府機関が発行するメディアに導入し、その価値を示す必要があるだろう。

  • 本物と見分けがつかないシンセティックイメージを示し、「(電子透かしが)いかに重要か想像していただけるでしょう」とGoogleのスンダー・ピチャイCEO

他にも、詐欺やマネーロンダリングを防止するために銀行に義務付けているKYC(Know Your Customer:本人確認)を、AIモデルの訓練や展開に利用されるGPUクラスタへのアクセスに義務付けることも有効と考えられている。これにより、誰がどのような目的でAIを使用しているのかを把握し、安全対策の責任の所在を明確にする。

そうしたAI開発にロードブロックを設けることに対して、「始まっていないものを規制する必要はない」と否定する意見も少なくない。だが、この問題は単なる技術的な挑戦以上のものになろうとしている。将来大きな問題に発展する可能性を危惧する今の声の大きさを考えると、小さな成功を積み重ねながらAIの透明性と信頼性を確保していくことが、より困難な問題に取り組み、それを解決するための信頼性のあるフレームワークを構築するための重要なステップとなる。