メディア

AIへの熱視線続く、推論エンジンの需要が高まる見込み半導体メーカーの競争も激化か(2/2 ページ)

» 2017年01月11日 13時30分 公開
[Junko YoshidaEE Times]
前のページへ 1|2       

Googleの「TPU」

 機械学習(マシンラーニング)チップにおける革新的技術を切望する業界にとって、ターニングポイントとなったのが、Googleが2016年5月に発表した人工知能(AI)向けアクセラレーターチップ「Tensor Processing Unit(TPU)」だ。Googleは、「TPUは、商用FPGAやGPUよりも1桁高いワット当たり性能を実現する」と説明している。Googleは、このTPUが、同社のAI「AlphaGo(アルファ碁)」に使われていることを明かしている。ただしGoogleは、TPUのアーキテクチャの詳細には言及しておらず、TPUを販売する予定もないようだ。

 多くのSoC設計者は、Googleの動きを見て、機械学習向けにはカスタムのアーキテクチャが欠かせないと思ったようだ。だが、より重要なのは、ディープニューラルネットワークの性能の指標となるものが、現時点では業界にはないという点である。

 CEA-Letiは、「推論エンジン向けのさまざまなハードウェアアーキテクチャを調べるツールの準備は整っている」と述べている。同機関は、設計者がディープニューラルネットワーク構造を生成、調査できる「N2D2」というソフトウェアフレームワークを開発したという。Duranton氏は、「われわれは、ディープニューラルネットワークに適したハードウェアを選択するツールとしてN2D2を開発した。N2D2は、2017年第1四半期にオープンソースとしてリリースする予定だ」と述べている。

CEA-Letiが開発した「N2D2」 出典:CEA-Leti

 この新ツールの鍵となるのは、認識精度に基づく比較だけではなく、処理時間やハードウェアのコスト、エネルギー消費の観点からもハードウェアを比較できる点だ。Duranton氏は、「ディープラーニング向けのアプリケーションは、ハードウェア実装ごとに異なるパラメーターが必要になると考えられるため、こうした機能が極めて重要となる」と説明している。

 N2D2は、マルチコア/メニーコアのCPUやGPU、FPGAを含む既成の商用ハードウェア向けのベンチマーク機能も搭載しているという。

 CEA-Letiは、エッジコンピューティングにディープニューラルネットワークを導入する方法を研究してきた。Duranton氏は、「エッジコンピューティングにディープニューラルネットワークを導入する際の障壁は何か?」という質問に対し、「浮動小数点型サーバソリューションは消費電力、サイズ、レイテンシなどの制約があるため適用できない。その他にも、バンド幅やオンチップメモリ容量などの制約がある」と答えた。

 Duranton氏は、専用アーキテクチャでは、スパイクコーディングのような新しいコーディング技術が使用されるとみている。

 CEA-Letiの研究者は、ニューラルネットワークの特性を研究する中で、ニューラルネットワークは本質的に、コンピューティングエラー(計算誤差)に寛容であることを発見した。この発見によって、ニューラルネットワークは「近似計算」に対する適正があることが分かった。

 そうだとすれば、必ずしもバイナリコーディングが必要なわけではないかもしれない。スパイクコーディングのようなテンポラルコーディングは、エッジノードでエネルギー効率がより一層優れていることを考えると、これは朗報といえる。

 スパイクコーディングの利点は、スパイクコード化された(もしくはイベントベースの)システムでニューラルシステム内のデータがどのように符号化されるかが分かることだ。さらに、イベントベースのコーディングは、専用センサーや前処理と互換性を持たせることも可能だ。

 神経システムで使われるものに近いコーディングであれば、ミックスドアナログやデジタル実装が簡単になり、エネルギー消費の小さい小型ハードウェアを構築できるというメリットもある。

【翻訳:滝本麻貴、編集:EE Times Japan】

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.