検索
ニュース

Qualcomm、サーバ向けAIプロセッサのサンプル出荷を開始「Cloud AI 100」

Qualcommが2019年に、クラウド向けAI推論アクセラレータ「Cloud AI 100」を最初に発表してから、約18カ月がたとうとしている。同社によると、現在既にCloud AI 100の最終製品の製造を開始しており、2021年前半には出荷を開始できる見込みだという。複数の顧客にはサンプリングを開始している。

Share
Tweet
LINE
Hatena

 Qualcommが2019年に、クラウド向けAI推論アクセラレータ「Cloud AI 100」を最初に発表してから、約18カ月がたとうとしている。同社は今回、このCloud AI 100で利用可能になるソリューションのフォームファクタや、そのカードの性能数値について、さらなる詳細を明らかにした。同社によると、現在既にCloud AI 100の最終製品の製造を開始しており、2021年前半には出荷を開始できる見込みだという。複数の顧客にはサンプリングを開始している。

 Cloud AI 100は、最大16個のAIプロセッサコアを推論アクセラレーターとして搭載し、INT8、INT16、FP16、FP32をサポートする。7nm FinFETプロセスを用いて製造されている。

 Qualcommが同チップを発表したのは、今から約18カ月前の2019年4月のことだ。同社はスマートフォン向けプロセッサ市場において、「Snapdragon」シリーズで優位性を確立しているが、サーバ向け製品に関しては、2017年に発表したArmベースのSoC(System on Chip)「Centriq」シリーズを、わずか1年後の2018年に廃止するなど、軌道に乗せることができなかった。このため、同社にとってCloud AI 100は、エッジサーバ市場に参入するための一手段となるようだ。


エッジサーバを含め、エンタープライズデータセンターや5G(第5世代移動通信)インフラなどをターゲットとした「Cloud AI 100」 画像:Qualcomm(クリックで拡大)

 Cloud AI 100チップの詳細については、今もまだほとんど明らかになっていないが、まずは3種類のカードとして利用できるようになるということだけが分かっている。デュアルM.2エッジ(DM.2e)フォームファクタの性能は、消費電力15Wで演算性能は50TOPSを上回り、デュアルM.2(DM.2)カードは25Wで200TOPS、PCIeカードは75Wで約400TOPSを、それぞれ実現するという(Qualcommによると、これらのTOPSの数値は生データで、理論上の最大値であるため、実際の使用時に実現可能な性能数値を示しているわけではないとする)。

 Qualcommは、同社の低消費電力プロセッサの設計技術を、モバイル市場からエッジAI(人工知能)アクセラレータ市場へと移行させたようだ。Cloud AI 100は、Snapdragonプロセッサで使われているAIアクセラレーションブロックをベースとした設計を採用していないが、1W当たりの性能数値が非常に優れている。Qualcommは、報道機関への説明会で披露したスライドの中で、Cloud AI 100のPCIeカード版の製品が、業界で最も広く使われているさまざまなソリューションを超える性能を、わずかな消費電力量で実現していることを示した。同社によると、これは、他のサプライヤーが公に発表している数値に対して、実際に測定した性能数値を比較した結果だという。

 Qualcommのプロダクトマネジメント部門担当シニアディレクターを務めるJohn Kehrli氏は、「当社には、これまで長く受け継いできたAI研究開発事業がある。実際に、モバイル部門では現在、第5世代のソリューションを手掛けており、11年以上にわたって積極的に研究開発を進めてきた。われわれは、こうして培ってきた情報や業界専門知識を、モバイルとは異なるAIコアの分野において活用している」と述べている。


Resnet-50での推論性能(推論/秒)と消費電力について、主要な推論用チップと比較した。Qualcommのチップは、電力効率の点で優れているように見える 出典:Qualcomm(クリックで拡大)

 Qualcommは、Cloud AI 100の新しい開発キットも発表した。これには、Cloud AI 100に加え、ホストプロセッサとして「Snapdragon 865」も搭載した5Gエッジボックスも含まれている。

【翻訳:田中留美、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る