[サンフランシスコ 7日 ロイター] - 米アルファベット傘下のグーグル<GOOGL.O>は7日、同社の人工知能(AI)を武器や不当な監視活動に使わないことなどを定めたAI運用の原則を公表した。

同社は米軍の無人機(ドローン)による画像認識に協力したことに対して社内で抗議活動が広がり、従業員4600人が協力を止めるよう求める嘆願書に署名し、辞職者も出る事態となっている。学界からも倫理上問題だとの指摘が出ている。

原則によると、グーグルは身体的障害を引き起こす目的でAIを利用しないほか、「人権に関する国際基準を侵害するような」監視活動、あるいは便益よりも害を引き起こすリスクの方が大きい監視活動への利用を進めない。

また、AI開発にあたる社員と顧客企業に対し、人種、性別、性的嗜好、政治、信教などの面で「人々に不公正な影響を与えるのを避ける」よう求めている。

グーグルのサンダー・ピチャイ最高経営責任者(CEO)はブログで、サイバーセキュリティーや軍事関係の人員募集、調査、救助などの分野では政府との契約を進めていくと表明。「わが社は武器における利用のためにはAIを開発しないが、その他多くの分野で政府および軍との協力を続けることを明確にしておきたい」と記した。

あるグーグル幹部は、今回の原則が昨年導入されていれば、同社は軍事用ドローンのプロジェクトに参加しなかっただろうと打ち明けた。

ロイターが確認した社内電子メールによると、原則の草案は従業員9人で構成する委員会が作成した。

この原則に対して議会からは批判も出ている。ピート・キング下院議員(共和党)は7日ツイッターに、グーグルがドローン・プロジェクトの契約を更新しないことは「米国の国家安全保障にとって敗北だ」と投稿した。