fossBytesに4月7日(米国時間)に掲載された記事「Google’s First Machine Learning Chip (TPU) Is 30x Faster Than CPUs And GPUs」が、Googleが開発して利用している機械学習処理に特化したプロセッサTPU(Tensor Processing Unit)の処理速度がCPUおよびGPUで構築された処理システムよりも人工知能処理に関して15倍から30倍ほど高速だと伝えた。

​TPU Printed Circuit Board ​資料:In-Datacenter Performance Analysis of a Tensor Processing Unit

同記事は、GoogleのDistinguished Hardware EngineerであるNorm Jouppi氏が4月5日(米国時間)にGoogle Cloud Platform Blogにエントリした記事をもとにしたもの。同氏は、米国のマウンテンビューで開催されたNAE Regional Meetingで、Tensor Processing Unitに関する論文を発表したと述べている。

論文で、TPUの比較対象として使われているプロセッサおよびGPUはIntel Haswell CPUおよびNvidia K80 GPU。TPUでは高いエネルギー効率が実現されていると説明があり、TeraOps/Wattで約30倍から80倍の高効率を実現するとしている。

TPU Block Diagram 資料:In-Datacenter Performance Analysis of a Tensor Processing Unit​

Googleは機械学習や人工知能処理を自社のサービスで利用している。こうした処理を高速にかつ高い電力効率のもとで実現するには従来から利用してきた汎用的なプロセッサおよびGPUでは不十分だと指摘。こうした処理を効率よく行うために専用のプロセッサを開発したとしている。Googleのように大規模なデータセンターを構築するベンダはこうした専用プロセッサがもたらす効果がきわめて大きなものになるとされている。