メディア

機械学習の時間を100分の1へ、インテルAIの戦略Nervanaプラットフォーム(2/2 ページ)

» 2016年12月12日 15時30分 公開
[庄司智昭EE Times Japan]
前のページへ 1|2       

Nervanaプラットフォームとは

 Nervanaプラットフォームは、インテルが2016年8月に買収したNervana Systemsの技術をベースとしたAI製品群を指す。「Xeon」や「Xeon Phi」プロセッサ、アクセラレーターとしてのFPGA、Nervana Systemsの技術を用いた製品が含まれる。

 根岸氏によると、AIのワークロードを実行するデータセンターのサーバで、97%にインテルプロセッサが搭載されている。その中で、最も広く導入されているマシンラーニングプラットフォームとして挙げるのが、Xeonプロセッサである。Xeonプロセッサでは、2017年に「Apache Spark」の性能を18倍向上した「Skylake」を投入する。

「Nervanaプラットフォーム」のポートフォリオ (クリックで拡大) 出典:インテル

 Xeon Phiは、Xeonと比較してより学習時間の短縮に焦点を当てたプロセッサとなっている。最大400Gバイトのダイレクトメモリアクセスが可能で、根岸氏は「現行品(開発コード名:Knights Landing)で32ノードでスケーリングした場合、31倍のマシンラーニング時間の高速化を実現できている」と語る。2017年には、Knights Landingに対して4倍の性能向上を実現した「Knights Mill」を投入する予定だ。

 また、Intel FPGA(旧Altera)の「Arria10」をプロセッサと組み合わせて高並列な実装をすることで、電力効率に優れた推論を実現できるという。FPGAは回路設計できる技術者が限られるが、IPのビルディングブロックを提供することで対応する。

Nervana Systemsの技術をベースとしたASIC「Lake Crest」の概要 (クリックで拡大) 出典:インテル

 Nervana Systemsの技術をベースとしたASIC「Lake Crest」は、学習時間の短縮を追求した設計となっている。計算処理を行うProcessing Cluster、計32GバイトのHBM2メモリ、外側に独自の通信機能などを配置(上記ブロック図を参照)。最大10倍の並列化を実現できるとしており、2017年上期から一部顧客に提供を開始する。

機械学習にかかる時間を100分の1へ

 ディープラーニングの学習には、GPUが多く活用されている印象がある。根岸氏も「最初は、AIのワークフローにプロセッサは向いていないといわれていた」と言及する。しかし、Xeon Phiで行った実験では6カ月未満のソフトウェア最適化により、最大400倍のパフォーマンス向上を実現。「ハードウェアの特長は、ソフトウェアをどれだけ最適化できることに依存することが分かった。つまり、AIにプロセッサが向いていないのではなく、単に今まで最適化されていなかっただけなのだ」(根岸氏)と語る。

「AIソリューション」としての展開にも注力する (クリックで拡大) 出典:インテル

 インテルではLake Crestの次世代品として、数年の間に「Knights Crest」を展開予定。Knights Crestの詳細は明かせないとしたが、これらのAI製品群により、2020年までにマシンラーニングの時間を現行の100分の1に短縮することを目指すとした。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.