「Bard」など生成AIに取り組むGoogleの親会社Alphabetが従業員に対し、AIチャットボットに機密情報を入力しないように注意を促しているという。Reutersが複数人の関係者の話として報じている。
生成AIは「ChatGPT」の登場により急速に普及し、業務に用いる例も出てきている。GoogleはBardを発表し、先日に日本語への対応も発表したところだ。
Reutersが関係者からの情報として伝えているのは、チャットボットに機密情報を入力しないように社員に注意しているとのこと。また、開発者に対しては、チャットボットが生成したコンピューターコードをそのまま使用しないよう警告しているという。これには、自社のBardも含まれると記している。
Reutersの問い合わせに対しAlphabetはこれを認め、「Bardは望んでいないコードを提案することがあるが、それでもプログラマを支援する」と述べたという。自社技術の限界について、透明性をもつようにしているとも明かし、「情報の保護に関して以前から敷いているポリシーに沿ったもの」と位置付けたという。
Reutersは、Fishbowlによる1万2000人を対象とした米国の調査として、1月時で43%がChatGPTなどのAIツールを利用していること、多くの場合で上司に知らせずに使っていることを紹介している。