メディア

IBMの8ビットAIに向けた取り組みDNNの学習を成功(2/2 ページ)

» 2018年12月11日 11時30分 公開
[Junko YoshidaEE Times]
前のページへ 1|2       

低精度への移行

 効率化を実現するための方法の一つとして、AI処理に必要な精度を下げるという方法がある。

 Welser氏は、「これまでは、精度の高い計算性能が当然とされ、32ビットの浮動小数点演算が標準であり、非常に精度の高い計算向けとして64ビットの倍精度浮動小数点演算が使われていた。しかし数年前から、一般的な方向性として、AI分野では、このような精度が必ずしも重要であるとはいえないとする認識が広まってきている」と説明する。

 同氏は、「AIの場合、ニューラルネットワークに関して考慮すべき点は、正しい答えを得た場合に、どのタイミングで画像や言葉を表示するかということだ。イヌとネコのどちらなのかを質問した時に、『ネコ』という答えが正しければ、そこに至るまでの計算については気にする必要がない」と主張する。

 理想的には、AIが人間の目を模倣すべきだろう。Welser氏は、「例えば、見通しの良くない窓越しに、歩行者が路上を歩いているのが見えるとする。これは、低精細の画像だといえるが、その歩行者が自分の母親で、こちらに歩いてきているということを判断するには十分な場合が多い。このため、正しい答えさえ得られれば、視覚的に高い精度であるかどうかは大した問題ではない」と述べる。

 同氏は、「こうしたことから、AI処理は低精度で行うという方向に向かっていると言える」と説明する。

 さらにWelser氏は、「32ビット演算の場合、32ビットで計算しなければならないが、それを16ビットで実行できれば、演算性能はおおむね半分で済む。あるいはチップ面積が半分以下になる可能性もある。もし8ビットまたは4ビットまで減らすことができれば、さらに良い結果を得られるだろう。チップ面積や消費電力、性能、スループットなど、全ての面で迅速に大きな成功を収められる」と述べる。

 しかし同氏は、「われわれは、これまで長い間、AIの学習(トレーニング)には32ビットの精度を維持するしか方法がないと考えてきた」と認めている。

 IBM Researchは2015年に、既存のCMOS技術に関する新しいデータフロー手法について説明した論文を発表し、低精度でトレーニングと推論を行う方法を発表した。同社が披露した、16ビット精度でトレーニングを行ったモデルは、32ビットでトレーニングを行ったモデルと比べても遜色がないという。

 IBMは「その後は精度を下げる手法が、業界標準としてたちまち普及していった。今や、16ビットトレーニングや8ビット推論は、ごく普通に存在していて、新興企業の急増を加速し、ベンチャーキャピタルによる低精度のAIチップへの投資を後押しすることになった」と述べている。このような新しい傾向が出現しているにもかかわらず、高精度のモデルを維持しなければならないという前提の元、16ビット未満のトレーニングはほぼ不可能だと考えられてきた。

 Welser氏は、「IBMは、さまざまな手法を開発し、それを研究者がAI処理に適用することによって実現してきた。例えば、8ビットで実行するセクションもあれば、積算向けに16ビットで実行するセクションなどもある。そのため、おおよその精度を失うことはない」と述べている。

 つまり、IBMの開発チームが達成した成果は、オペレーション全体に対して広く8ビット計算を適用する場合と比べて、複雑化したといえる。IBMはその代わりに、異なるプロセスに対してさまざまな手法を組み合わせるという方法を発見した。

 Welser氏は、「例えば実際に、われわれは現在、あらゆる重み更新処理で8ビットを使用しているが、一部の加算や積算ステップ処理では、まだ16ビットを使う場合もある。16ビットの加算は、16ビットの乗算よりも簡単で、実際に16ビットでの実行が役に立つことから、こうした対応が非常に重要になってきている」と述べている。

 同氏は、「さらにもっと重要な点がある。IBMの取り組みの中の重要な要素として挙げられるのは、これらの各オペレーションに対し、最終的にボトルネックを発生させないような方法で、チップ上でデータを非常にスムーズに流すことが可能な、データフローアーキテクチャを発見したことだ」と指摘する。

 「最終的には、これまで広く使われてきた16ビットや32ビットの場合と同じレベルの精度を、8ビット浮動小数点を効率的に使用することによって実現できると実証した」(Welser氏)

 IBMはIEDMで、相変化メモリを使った8ビット精度のインメモリ演算について発表した。

 消費電力を削減する鍵は、演算のためにメモリからプロセッサへのデータ移動をなるべく抑えることにある。こうしたデータの移動には時間とエネルギーが必要だからだ。

IBMはIEDMで、新しいタイプのインメモリコンピューティングデバイスを発表した。既存の技術に比べると、100〜1000倍、低いエネルギーで演算が可能だという 出典:IBM Research(クリックで拡大)

 より効率的にAI処理を行う必要があることから、インメモリコンピューティングを検討する必要性が高まっている。このような技術を手掛けるAIスタートアップの中で際立っているのがMythicの存在だ。もちろん、Mythic以外にも存在するかもしれない。

 Welser氏の見解では、アナログ技術は「エッジにおけるAI」に適しているという。コンピューティングの歴史では、アナログコンピューティングでは低消費電力が要求され、エネルギー効率が高いことが証明されている。だが、それもまた決して正しくはなかった。Welser氏は、「それが、デジタルコンピューティングが最終的にはアナログコンピューティングに勝った理由だ」と述べる。

 だがアナログは、インメモリコンピューティングにおいて再び強さを見せていると、Tirias Researchの主席アナリストを務めるKevin Krewell氏は述べている。「メモリアレイはニューラルネットの重みを保持し、アナログ要素は加算やトリガーを実行する」(Krewell氏)

 Krewell氏は、「問題は、アナログを適切にキャリブレーションし、プロセスの精度と温度の変化を正しく維持することだ。さらに、アナログとメモリは、デジタル要素のようにはスケールできないことも考慮しなくてはならない」と続けた。

【翻訳:滝本麻貴、田中留美、編集:EE Times Japan】

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.