マイナビニュースマイナビ

IBM Researchが目指すコンフィデンシャルコンピューティングとAI高速化とは

[2021/06/21 11:00]岩井 健太 ブックマーク ブックマーク

管理者からもセンシティブなデータを守る必要性

このような認識のもと、まず小原氏はコンフィデンシャルコンピューティングについて説明した。

現状のクラウドコンピューティングでは、データをクライアントからサーバに転送したうえで処理を行う際は移動中のデータと蓄積データは暗号化され、ファイル単位で暗号化されていれば侵入者がファイルにアクセスできても中身は見られないが、計算自体は暗号化されたデータを復号化して平文に戻してから行う。

そのため、管理者は計算中にデータにアクセスできるため、復号されたデータにアクセスできてしまうという。ここで示す管理者とは、クラウドであればクラウドサービスを提供する側のクラウド管理者と、クラウドを使用するテナント側の管理者が含まれる。IBM Cloudであればクラウド管理者はIBMであり、テナント側はIBM Cloudを使用してサービスを提供する管理者だ。

クラウド環境において、なんらかの問題が発生したときに問題特定のために計算中のデータにアクセスする必要性に迫られる場合があるため、管理者は広くアクセスできる権限を持っている。しかし、アクセス権限を悪用されるとセンシティブなデータの漏えいに至ることもあり、通常は管理者がアクセス権限を悪用することは考えにくく、雇用契約や倫理規定などで悪用が禁止されている。

これらは、運用でセキュリティを実現するため「オペレーショナルアシュアランス」と呼ばれている。ただ、ゼロトラストの環境ではオペレーショナルアシュアランスは必ずしも十分ではないため、管理者からもセンシティブなデータを守ることが望ましいという。

オペレーショナルアシュアランスのイメージ

オペレーショナルアシュアランスのイメージ

ミッションクリティカル業務に適用できる「コンフィデンシャルコンピューティング」

そこで、注目されているのがコンフィデンシャルコンピューティングというわけだ。小原氏は「移動中のデータと蓄積データを暗号化するだけでなく、使用中のデータも保護する。計算するために暗号化されたデータを復号化する点においてはオペレーショナルアシュアランスと同様だが、管理者であってもサーバにログインできず、計算中のデータにアクセスすることはできない」と説く。

コンフィデンシャルコンピューティングのイメージ

コンフィデンシャルコンピューティングのイメージ

さらに、同社の成果として準同型暗号でのコンフィデンシャルコンピューティングを可能としている。これまでは必ずサーバでデータを復号化してから計算を行っていたが、準同型暗号では復号化することなく、演算することができるという。

準同型暗号でのコンフィデンシャルコンピューティングのイメージ

準同型暗号でのコンフィデンシャルコンピューティングのイメージ

同氏は「これは極めて強力な手法であり、例えば個人情報を含むセンシティブなデータに対して機械学習を行う際に、一切データを復号化することなく、機械学習の結果を暗号化したまま求めることができる。この技術は長年の研究を経て、実用化に近づいている。しかし、準同型暗号がセキュリティの課題すべてを解決できるかと言えばノーだ」と話す。

同氏によると、例えば業務アプリケーションの開発者が悪意を持っていたり、第三者が業務アプリケーションに悪意のあるコードを注入したりすれば、意図した計算結果を得られないことがあるという。同社では業務アプリケーション自体の信頼性を確保するために、アプリケーションのビルドにコンフィデンシャルコンピューティングを適用したセキュアビルドを開発し、すでにIBM Cloudで利用できるようになっている。

ビルドをコンフィデンシャルコンピューティング環境で行うため、悪意のあるコードの混入やソースコードの改ざんを防ぐことを可能とし、使用したソースコードは監査可能な状態で保存され、業務アプリケーションのデプロイ時に署名することで本物のコードか否か検証することを可能としている。

小原氏は「実行環境だけでなく、ビルド環境もコンフィデンシャルコンピューティングを使うことで、意図したアプリケーションをビルド/デプロイし、データ漏えいを防ぐことが可能になる。オペレーショナルアシュアランスに対して、この手法をテクニカルアシュアランスと呼んでいる。技術的にセキュリティを確保するためクラウドが安全になり、ミッションクリティカルな業務/アプリケーションにも適用できる」と強調する。

ビルド環境でコンフィデンシャルコンピューティングを行うことで、意図したアプリケーションをビルド/デプロイできるという

ビルド環境でコンフィデンシャルコンピューティングを行うことで、意図したアプリケーションをビルド/デプロイできるという

エッジ環境のAIは処理時間と消費電力が課題

続いて、AIの高速化に話が移った。

小原氏は、先日オンラインで開催された「IBM Think 2021」で公開していたAIの開発と業務への組み込みを行う「IBM Visual Insights」を搭載したBostonDynamicsの犬型ロボット「Spot」が在庫管理などをエッジAIで行うデモ動画に触れ「画像認識をエッジで行うためAIの反応時間が短縮されるとともに、大量の画像をクラウドに転送する必要がないことから、十分な通信環境でない場合でも目的を達成できる。しかし、エッジ環境では消費電力に制約があることが多く、AIが複雑になるにつれ、増大する処理時間とともに消費電力は課題になっている」と指摘。

AIを搭載したBostonDynamicsのロボット

AIを搭載したBostonDynamicsのロボット

そこで、同社はAIの電力あたりの処理能力に注目した。AIで使われているディープラーニング手法は、浮動小数点演算(コンピュータの数値演算方式の1つ)を大量に行うが、一般的な科学技術計算で使われる64ビット/32ビットの精度は必要ないことが知られている。

演算のビット数を少なくできれば、同じトランジスタの数で多くの演算を同時に実行可能で、同じメモリ/帯域幅でも多数のデータポイントを転送できることから、電力あたりの処理能力が向上するという。この計算精度の削減を近似コンピューティング(Digital AI Cores)と呼んでおり、2019年時点では精度の削減により処理能力が向上すると予測されていた。

同氏は「実際、2021年現在では32ビットから16ビット、8ビット、4ビットと精度を削減したトレーニングに成功している。推論に関しても16ビット、8ビット、4ビット、2ビットと究極的なレベルまで精度を下げることにも成功している。これから、さらに電力効率を向上させるためにはアナログコンピューティング(Analog AI Cores)を使うことになるため、研究を進めている」と説明する。

深層学習に最適化されたハードウェアとソフトウェアで電力効率を向上

デジタルでは、メモリチップにデータを格納してデータを演算装置に転送し、計算を行う。アナログではメモリチップにデータを格納することは同じだが、演算はメモリチップの記憶回路そのものを利用する。デジタルのメモリチップであってもトランジスタレベルではアナログ回路として動作しており、1つの信号線で1ビットを表現するのではなく、多値を表現するものとして扱う。

小原氏は「別の言い方をすれば、推論の場合は2021年時点で2ビットに到達していることから、数年後には1ビットへの到達が見込まれている。1ビットで演算は可能だが、推論ができるかは甚だ疑問だ。そこで、アナログが登場する。デジタルはメモリセル1つで1ビットを計算するが、アナログでは1ビット以上の情報を記憶させ、演算することができる。つまり、アナログは演算に使用するメモリセルが1つでも1ビットより多い情報量を演算できるため、右のグラフ(下図を参照)における縦軸を演算ビット数ではなく、メモリ数と読み替えれば1ビットまで進んでも推論が十分できると期待されている」との見立てだ。

IBMにおけるAI高速化のロードマップと実績

IBMにおけるAI高速化のロードマップと実績

今後もデジタルが活躍するが、単純に演算ビット数を削減するだけでなく、ディープラーニングに最適化されたハードウェアとソフトウェアを実現することで電力効率が向上するとしている。一部は32ビットや16ビットの演算が必要な箇所もあり、それらはSFU(Special Function Unit)という別の演算回路で計算している。

このようなハードウェアは従来のCPUとは異なる実行プログラムが必要となるため、通常のCPUのようにPythonやC、Javaなどのプログラミング言語でコンパイルして実行したり、インタプリタで実行したりすることは困難だという。

同氏は「頻繁に使われるAIフレームワークであるTensorFlowやPyTorchなどが生成する計算グラフに着目し、計算グラフを入力して実行コードを生成する特殊なコンパイラ『DeepTools』を開発した。これは、計算グラフを分割して複数のコアに割り当てる空間分割最適化を行うほか、各コアの計算に関する計算順序最適化として計算中のデータ移動が少なくなるように何重にも入れ子になっているループの計算順序を調整する。得られたループに、あらかじめ用意してあるライブラリコードを組み込み、最適化することで実行コードが生成される」と説く。

これにより、AIハードウェアの性能が十分に発揮できることに加え、コンパイルの過程は複雑だがアプリケーションからの使い方は簡単であり、AIフレームワークから特段に意識することなく、ハードウェアを使うことを可能としている。

左からDigital AI Coresのブロック図と「DeepTools」の利用イメージ

左側の図はIBMが開発中のDigital AI Coresのブロック図。MPE(Mixed Precision Engine)と呼ぶ演算装置が二次元のメッシュのように並んでおり、ディープラーニングで使う行列計算やコンボリューション(畳み込み)計算が効率よく実行できるという。このブロック図は1つの計算コアとなり、一般的には複数のコアを並べて並列処理を行う。右側はAIフレームワークの計算グラフを入力して実行コードを生成する特殊なコンパイラ「DeepTools」の利用イメージ

電力あたりの性能評価では、NVIDIAのGPUと比較しても電力効率を実現しているという。浮動小数点数演算性能では演算ビット数を削減することで電力効率を向上しており、整数演算性能では同じビット数であってもディープラーニングに最適化されたハードウェアとソフトウェアにより、電力効率を向上させている。

電力あたりの性能をNVIDIAのGPUと比較

電力あたりの性能をNVIDIAのGPUと比較

最後に小原氏は「コンフィデンシャルコンピューティングをアプリケーションの実行だけでなく、ビルドにも適用することでテクニカルアシュアランスを実現できる。管理者であっても計算中のデータへのアクセスや、業務アプリケーションの改変ができないため、ミッションクリティカル業務のクラウド移行に役立つと考えている。また、AIでは近似コンピューティングを最適化したハードウェアとソフトウェアにより、格段に電力効率が向上し、エッジ環境でも高度なAIを使えるようになる」と締めくくっていた。

※ 本記事は掲載時点の情報であり、最新のものとは異なる場合がございます。予めご了承ください。

もっと知りたい!こちらもオススメ

日本IBMから見る、ハイブリッドクラウドとAIの戦略

日本IBMから見る、ハイブリッドクラウドとAIの戦略

日本IBMは6月10日、オンラインで「ハイブリッドクラウド&AI戦略」に関する説明会を開いた。説明会では先日開催した「IBM Think 2021」において発表された新サービス・機能群の日本における展開について語られた。

関連リンク

この記事に興味を持ったら"いいね!"を Click
Facebook で TECH+ の人気記事をお届けします
注目の特集/連載
[解説動画] Googleアナリティクス分析&活用講座 - Webサイト改善の正しい考え方
Slackで始める新しいオフィス様式
Google Workspaceをビジネスで活用する
ニューノーマル時代のオウンドメディア戦略
ミッションステートメント
次世代YouTubeクリエイターの成長戦略
IoTでできることを見つけるための発想トレーニング
教えてカナコさん! これならわかるAI入門
AWSではじめる機械学習 ~サービスを知り、実装を学ぶ~
Kubernetes入門
SAFeでつくる「DXに強い組織」~企業の課題を解決する13のアプローチ~
マイクロサービス時代に活きるフレームワーク Spring WebFlux入門
AWSで作るマイクロサービス
マイナビニュース スペシャルセミナー 講演レポート/当日講演資料 まとめ
セキュリティアワード特設ページ

一覧はこちら

今注目のIT用語の意味を事典でチェック!

一覧はこちら

会員登録(無料)

ページの先頭に戻る