engaget

AppleがM1チップを開発したように、NVIDIAがArmベースの独自CPU「Grace」を発表しました。同社初のデータセンター向けCPUで、AIスーパーコンピューティングや自然言語処理など、大規模なデータ処理を対象としています。

NVIDIAによると、「Grace」を搭載したシステムは、x86ベースの「DGXTM」システムと比較して、1兆個のパラメーターを持つ自然言語処理(NLP)モデルの学習を約10倍速でこなします。

このパフォーマンス向上を支えるのが、NVIDIA独自の「NVLink」インターコネクト技術です。同技術の適用により、Grace CPUとNVIDA製GPU間で900GB/sのスループットを実現し、これは現在の主要なサーバーの約30倍の速度だとNVIDIAは説明しています。また、LPDDR5xメモリの採用により、Graceシステムのエネルギー効率は10倍に向上、DDR4 RAMの2倍の帯域幅を実現しています。

この「Grace」は、スイス国立スーパーコンピューティングセンター(CSCS)と、米国のロスアラモス国立研究所に採用予定。両施設とも2023年に「Grace」を搭載したシステムを立ち上げ予定で、その頃には他の顧客にも「Grace」を採用したシステムが広がる見通しです。

NVIDIAはこのほか、Amazon Web Servies(AWS)との提携も発表。NVIDIA GPUをAWSのArmベースのCPU「Graviton2」と組み合わせると発表しました。このNVIDIA GPUを搭載したAWSインスタンスは、Androidゲームをネイティブに実行できるだけでなく、モバイル機器にゲームをストリーミングしたり、レンダリングやエンコードを高速化できるといいます。

加えて、NVIDIAはArmベースのHPC(ハイパフォーマンス・コンピューティング)用の開発者キットも発表。同キットには、Armのサーバー向けCPUである「ARM Neoverse」を80コア、NVIDIA A100 GPUを2基、ネットワークやセキュリティの高度化、ストレージを高速化する「NVIDIA BlueField-2 DPU」を搭載しています。

engaget

エネルギー効率の高いArmアーキテクチャは、膨大な電力を消費するデータセンターと相性が良いとされています。コンシューマーPC分野におけるApple M1の登場に続き、データセンター向けにもArmベースの製品が拡充されたことは、x86アーキテクチャを主力とするインテルの新たな脅威と言えそうです。

Source:NVIDIA