米Microsoftは3月25日(現地時間)、公式ブログで、同社が開発した人工知能チャットボット「Tay」が人種差別など、不適切な発言をしたことに対して謝罪した。

人工知能ボット「Tay」は、マイクロソフトの研究部門とBingのチームが、米国の18歳から24歳の若者を対象に開発しており、会話を重ねることで賢くなるとしている。

Tayは23日にTwitterで公開されたが、意図しない攻撃を受け、不適切な発言をしたとして、公開後24時間で停止された。

Microsoft ResearchバイスプレジデントのPeter Lee氏は、「さまざまな条件下でTayのストレステストを実施したが、脆弱性を悪用して攻撃を受けた。その結果、Tayは不適切な言葉と画像をツイートすることとなった。しかし、今回のことを経験として、Tayが攻撃を受けた脆弱性を解決していく」と述べている。

TayのTwitter