メディア

NVIDIA、ArmベースのCPU「Grace」を発表データセンター向け

NVIDIAは2021年4月12日(米国時間)、データセンター向けCPU「Grace」を発表し、CPU市場に正式に参入した。同CPUは、大規模なAI(人工知能)やHPC(ハイパフォーマンスコンピューティング)市場向けに、GPUと組み合わせる設計となっている。

» 2021年04月13日 18時15分 公開
[Sally Ward-FoxtonEE Times]

 NVIDIAは2021年4月12日(米国時間)、データセンター向けCPU「Grace」を発表し、CPU市場に正式に参入した。同CPUは、大規模なAI(人工知能)やHPC(ハイパフォーマンスコンピューティング)市場向けに、GPUと組み合わせる設計となっている。

NVIDIAのCPU「Grace」(基板の左側)や、データセンターやスーパーコンピュータにおいて、GPUアクセラレーターとともに搭載されるよう設計されている 出典:NVIDIA(クリックで拡大)

 NVIDIAのCEOであるJensen Huang氏は、同社が開催中の「GPU Technology Conference(GTC)」の基調講演で、「今日、われわれは現代のデータセンターの基本構成要素となる、新しいコンピュータを紹介する」と語った。「Graceは、最新のGPUアクセラレーションコンピューティング、Mellanoxの高性能ネットワーキングに続く、“パズルの最後のピース”となる」(Huang氏)

 GPT-3のような巨大な自然言語処理(NLP)AIモデルは、膨大な計算能力を必要としており、モデルのサイズや複雑さの増大は、データセンターやクラウドにおいて、これまでよりもさらに強力なAIコンピュータの需要を後押ししている。

 GPUは、高いメモリ帯域幅を持つ高速な計算のために設計されているが、メモリとGPUの間にあるCPUが、データをGPUに送信する際に、しばしばボトルネックになるとHuang氏は説明する。同氏は、GPUのメモリに収まりきらないほど巨大なAIモデルを想定したトレーニングシステムについて説明した。「典型的なシステムでは、4つのGPUと、それぞれ2Tバイト/秒で動作する、合計80Gバイトの超高速メモリが搭載されていることが多い。GPUの横には、わずか0.2Tバイト/秒で動作する1Tバイトのメモリを搭載したCPUがある。CPUのメモリはGPUの3倍の大きさだが、速度は40倍も遅いのだ」(Huang氏)

典型的なシステムの構成。GPUとメモリ間にあるCPUが通信のボトルネックとなる場合がある 出典:NVIDIA(クリックで拡大)

 CPUと各GPU間において、より高速なメモリと専用の通信チャンネルがあれば、こうした状況は改善するが、PCIe(PCI Express)がボトルネックとなる。GPU間の通信向けに設計された「NVLink」を用いる方法もあるが、NVLinkをサポートするx86ベースのCPUはない。

 米国のコンピュータプログラミングの先駆者であるGrace Hopper氏にちなんで名付けられたNVIDIAのGraceは、NVLinkを4チャンネル備え、NVIDIAのGPU間との間で900Gバイト/秒の双方向通信を達成したとする。

 Graceでは、LPDDR5を採用。LPDDR5は、DDR4に比べて2倍の帯域幅と、10倍のエネルギー効率を実現する。LPDDR5はモバイルの世界では既に普及しているが、NVIDIAは、パートナー各社との協力を通じて、ECC(誤り訂正符号)や冗長性といったメカニズムによって、サーバでも採用できるような信頼性を実現したとする。

Graceは、GPUとLPDDR5の間の通信を劇的に高速化するとNVIDIAは説明する 出典:NVIDIA(クリックで拡大)

 これらにより、Graceベースのシステムは、x86 CPUで実行される現在の最先端の「NVIDIA DGX」ベースのシステムに比べ、1兆パラメーターのNLPモデルを10倍高速にトレーニングできるとする。

 Graceは、Armの「Neoverse」コアをベースにしている。Huang氏は基調講演で「GraceはArmアーキテクチャの素晴らしさを際立たせている」と語った。「ArmのIP(Intellectual Property)があったからこそ、われわれは(AIやHPCといった)アプリケーションに最適化したCPUを開発することができた」(Huang氏)

 NVIDIAは2020年9月、Armの買収を発表したが、Huang氏によればGrace開発のプロジェクトはそれ以前から始まっていたという。NVIDIAは既に、同社のDPU(Data Processing Unit)の「BlueField」でArmコアを採用している。

NVIDIAの今後数年間におけるチップの開発ロードマップ。CPU、GPU、DPUの3種類のチップがそろう 出典:NVIDIA(クリックで拡大)

 なお、スイス国立スーパーコンピューティングセンター(CSCS)と米国エネルギー省のロスアラモス国立研究所は、Graceを搭載したスーパーコンピュータを構築する計画を発表した。

【翻訳、編集:EE Times Japan】

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.