5月4日に、バイデン米政権はAIに関して、製品の安全性とセキュリティを確保するための責任は企業にあるとする政府方針を発表、Anthropic、Alphabet/Google、Microsoft、OpenAIのトップをホワイトハウスに呼び、倫理的に公正な形でサービス開発をするよう求めた。

倫理的、道徳的、そして安全を確認する責任が企業にあることを明確にした点は大きい。だが、AI開発に関わる企業に責任を踏まえた開発を促したに過ぎない。

米国は次世代技術のルールづくりにおいて、イノベーションの可能性を重んじ、解決すべき問題がある時に規制を設けるスタンスで出発する風潮がある。AIについても、EUでは法整備の議論が活発であるのに対し、米国はAIがもたらす経済成長のメリットに目配りし、自主的なガイドラインや自己規制を促す傾向が見られる。このように認識に違いがあるため、主要7カ国(G7)デジタル・技術相会合においても、「責任あるAI」の活用に向けて参加国の一致が得られたものの、ルール作りの具体論に踏み込むことはなかった。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら