ディープインサイトは、「第8回IoT/M2M展」で、IntelのCPUのみで学習を行うデモを展示した。ディープインサイトが開発しているディープラーニング用フレームワーク「KAIBER(カイバー)」の学習エンジンをCPU向けに最適化し、GPUを使わない環境で高速に学習できるようにしている。
ディープインサイトは、「第8回IoT/M2M展」で、IntelのCPUのみで学習を行うデモを展示した。ディープインサイトが開発しているディープラーニング用フレームワーク「KAIBER(カイバー)」の学習エンジンをCPU向けに最適化し、GPUを使わない環境で高速に学習できるようにしている。
デモでは、高速で回転する歯車の模型に加速度センサーを取り付け、振動を計測。高速回転する歯車の上に障害物を置くと、波形(振動のデータ)が乱れ、推論を行って「異常」と判断する。だが、乱れた波形が何秒間か続くと、システムがそれを学習し、「正常」と判断するようになる。つまり、そのくらい素早く学習しているということだ。ディープインサイトのCEOを務める久保田良則氏は、「実際のアプリケーションに応用するときには、異常な波形が一定時間続いたら学習をやめてアラートを出す、という使い方にする必要がある」と説明する。
同技術は、ロボットや産業機器、IoT(モノのインターネット)ゲートウェイなどに搭載することを想定している。久保田氏は、製造現場の装置、つまりエッジデバイスで学習できるようにしたいというニーズは高まっていると話す。「製造現場は、1つ1つの工場や製造ラインによって、環境がかなり異なる場合がある。異常な波形などを事前に学習し、それを現場で実装すると、推論の精度にブレが生じる可能性が高い。1つ1つの現場で、リアルタイムに学習すれば、精度のブレが少ない推論ができるようになると考えている」(久保田氏)
KAIBERの学習エンジンは本来はGPUを使うが、今回はそれを、Intelの「Xeon E3」向けに最適化した。久保田氏によると、最適化の方法としては、「CPUのコアを指定し、それらのコアだけを学習用に使う」ことも可能だという。
今回の技術は、まだ最適化する余地はあるものの、技術的には確立されているという。「ドキュメントなどが整えば、2019年夏ごろまでにはリリースできる予定だ」(久保田氏)
Copyright © ITmedia, Inc. All Rights Reserved.