メディア

ArmのAI戦略、見え始めたシナリオIPベンダーならではの出方(4/4 ページ)

» 2018年03月23日 11時30分 公開
[大原雄介EE Times Japan]
前のページへ 1|2|3|4       

Armのシナリオ

 さらに落ちるのがCortex-Aコアを使った場合だ。Cortex-A75を仮に3GHzで駆動させたとして、32Ops/cycleだから96GOps/sec程度になる。要するに、Armが2017年から2018年にかけて提供しているソリューションは、いずれもピーク性能はその他のソリューションに遠く及ばないということになる。

現在の肩書きはVP, Fellow and GM, Machine Learning GroupのJem Davis氏。この写真は2016年のARM TechConの基調講演のもので、この当時の肩書きはARM Fellow, VP of Technology, Imaging and Vision Groupだった記憶が

 何で、という話はかつてJem Davis氏が説明してくれた事がある。特にMLに関して言えば、ものすごい勢いで新しいアーキテクチャとか手法が開発され、普及してゆくので、これに追従するのはArmのビジネスモデル的にも難しい(IPを提供し、ライセンスを受けたベンダーがこれを実装して製品化、なのでIPの提供からシリコンの出荷までのリードタイムが大きいため、うっかりすると製品出荷時に陳腐化している可能性がある)ので、専用IPの提供には慎重にならざるを得ないという話であった。

 第1世代のBifrostにInt 8のサポートを追加しなかったのも、当時の使われ方からすると、MLにGPUが使われるかどうかはまだはっきりしないということで、それをサポートすることによるコスト(若干とはいえエリアサイズは増えるし、まだ当時はArm NN SDKも無かったから、ソフトウェアのフレームワークを開発する必要もあった)増をライセンシーが嫌ったという事らしい。

 ただここに来て、モバイルあるいはエッジデバイスでのML利用の機運が高まってきたので、「取りあえず最小限カバーするための仕組みを提供しよう」というあたりが、2017年から2018年にかけての動きではないかと思う。

 実のところ、こうした端末あるいはエッジデバイス向けのML対応アプリケーションは、現状ではまだ緒に就いたばかりの段階である。新しいマーケットが立ち上がるにはインフラが必要であり、そのインフラを使ってアプリケーションが増えることでインフラがより充実する、というのは良くありがちな話である。なので、最初にインフラを整備しないと、そもそもアプリケーションが1本も生まれてこない。今現在Armがやっているのは、まさにこのインフラを作る作業であって、なのでスペック的にもそれほど追い込んだものではない。「そこそこに動くものを、ただし廉価で」提供することが、現在の目的である。

 ただしこれによってアプリケーションのエコシステムが活性化したら、その段階で必要なリソースや要求性能などの見極めをつけ、よりターゲットを絞り込んだ競争力のあるIPを投入、マーケットをかっさらってゆくという、というのがArmのシナリオと思われる。これは、これまでも繰り返されてきた同社の戦略である。IPベンダーらしい息の長い展開であるが、幸い同社にはこの長い期間を待てる資金的な蓄えも、人材も、そして戦略を理解してくれる親会社もある。その意味では、短期的にどうこう、とか学習向けマーケットをどうこう、というのは現在のArmの視野には一切入っていないだろう。学習向けはサーバ向けプロセッサとの組み合わせの話になり、むしろこちらはCCIXのエコシステム絡みでいろいろ展開はあるかもしれないが、それもやはり短期的にどうこう、という話にはならないと思われる。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.