Hello, we are fossBytes.

fossBytesに11月29日(米国時間)に掲載された記事「Google DeepMind Is Making Sure That AI Apocalypse May Never Come」が、英国を基盤に人工知能を開発しているGoogle DeepMindが、人工知能の危険な動向を監視するグループ「AI Safety Group」を発足したと伝えた。機械学習/人工知能がサービス向上の鍵となると多くのベンダーが考えているが、この新たな技術の開発が何をもたらすのかはまだわかっていない部分が多い。今回のGoogleの取り組みは、こうした技術の未知の面にセーフティ・ベルトを設けるものとなる。

これまで、人類に反旗を翻す人工知能をテーマとしたコンテンツはSFの人気ジャンルとしていくつも作品が制作されている。映画『2001年宇宙の旅』の人工知能「HAL 9000型コンピュータ」、映画『ターミネーター』シリーズに登場する自我を持ったコンピュータ「スカイネット」、映画『サマーウォーズ』で問題の引き金となる人口知能プログラム「ラブマシーン」など、上げれば切りがないが、人間を支援する目的で開発された人工知能が人類に反旗を翻す物語は多くのユーザーを楽しませてきた。SFには欠かすことのできないトピックだ。

現在開発が進められているさまざまな人工知能技術がこうした物語と同じ結末をたどるのではないかという話は、それだけでも面白いため度々話題に上がっている。「可能性は否定できない」や、それは夢物語だと切り捨てるものなど反応はまざまだが、結局のところ、いまだかつて実現していない取り組みであるため、「誰にもわからない」のが現状とされている。

Google DeepMindに発足したセイフティーチームが実際にどのような基準で技術をモニタリングし、何を持って「危険」と判断するのかは明らかにされていない。しかし、技術開発を進めると同時に、こうした「何をもって善とするのか」を判断する取り組みを続けることには意味があるだろう。