Googleは2月16日(現地時間)、機械学習モデルをアプリケーションへ実装するAPI「TensorFlow Serving」をリリースした。11月9日にオープンソース化した機械学習ライブラリ「TensorFlow」で訓練したモデルを、TensorFlow ServingのAPIを使ってクライアントとの入出力に用いることができる。

「TensorFlow Serving」のイメージ。「TensorFlow」で訓練したデータ(モデル)をTensorFlow ServingeのAPIでクライアント入出力に利用する

TensorFlow ServingはGPUリソースの使った処理の高速化する。クライアントとの入出力はgRPC(Googleが開発したリモートプロシージャコール)を使用し、同社が16コアのIntel Xeon E5(2.6GHz)マシンを使ってベンチマークを行ったところ、10万クエリ以上/秒の処理が可能だったという。

また同社はTensorFlow Servingを利用することで、データ更新に共なる機械学習モデルのアップデートが発生した場合のライフサイクル管理や、多岐にわたるアルゴリズムの実験が可能になるとアピールしている。C++で書かれたコードおよびチュートリアルは、Apache 2.0ライセンスでGitHubからダウンロード可能。対応OSはLinux。

阿久津良和(Cactus)