メディア

AIプロセッサを開発した東芝メモリの狙いメモリ以外での勝負も必要に?(1/3 ページ)

東芝メモリは2018年11月6日、ディープラーニング専用のプロセッサを開発したと発表した。今回同社が開発したのは、推論向けの技術。アルゴリズムとハードウェアの協調設計により、従来の方法に比べて認識精度をほとんど劣化させずに演算量を削減し、推論の高速化と低消費電力化を図ることに成功した。

» 2018年11月22日 11時30分 公開
[村尾麻悠子EE Times Japan]

 東芝メモリは2018年11月6日、ディープラーニング専用のプロセッサを開発したと発表した。今回同社が開発したのは、推論向けの技術。アルゴリズムとハードウェアの協調設計により、従来の方法に比べて認識精度をほとんど劣化させずに演算量を削減し、推論の高速化と低消費電力化を図ることに成功した。台湾で開催された国際学会「A-SSCC(Asian Solid-State Circuits)」(2018年11月5〜7日)で発表した。

フィルターごとに量子化

 ディープラーニングで認識精度を高めるためには、多くの積和演算が必要になる。だが、積和演算の数が増えるほど、当然、処理時間と消費電力は増大する。この課題に対しては、積和演算で用いる定数(重み)のビット数をレイヤーごとに減らすことで演算量を削減する方法が提案されている。ただ、この方法だと、重みを1ビットや2ビットまで削減すると、認識精度が劣化するというトレードオフが発生する。今回東芝メモリが開発したアルゴリズムは、ニューラルネットワークの各レイヤーに存在する、フィルターごとに最適量子化を行う。従来の提案である、レイヤーごとの最適量子化に比べ、より細かい粒度で量子化することで演算量を削減することができる。

東芝メモリが開発したアルゴリズム。各層において、フィルターごとに量子化することにより、演算量を削減できるという 出典:東芝メモリ(クリックで拡大)

 このアルゴリズムを適用した結果、平均ビット精度を3.8ビットにすると認識精度が50%以下に劣化する「レイヤーごとの最適量子化」に比べ、平均ビット精度を3.6ビットまで削減しても、認識精度はほとんど変わらなかった。

フィルターごとに最適量子化を行うと、平均ビット精度を3.6ビットまで落としても、認識精度に劣化が見られなかった 出典:東芝メモリ(クリックで拡大)
       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.