世界のスーパーコンピュータとそれを動かす人々


8月 31, 2023

Nvidia、GH200 Grace Hopperプラットフォームにより高速なHBM3eメモリを追加

HPCwire Japan

Agam Shah オリジナル記事

Nvidia Grace-Hopperは、生成AIが主流となりつつある市場向けに、CPUとGPUを緊密に統合したソリューションを提供する。性能を向上させるため、このグラフィックス・チップ・メーカーはGrace CPUとHopper GPUを含むGH200と呼ばれる新しいチップ・パッケージにHBM3eメモリを搭載した。Hopperは以前、チップパッケージにHBM3メモリを使用していた。

Nvidiaは、それぞれ72コアのCPUとHopper GPUを搭載した2つのGH200チップを、スケールアウトデータセンター向けのより大きなチップクラスタに接続する。 

HBM3eメモリはHBM3より約50%高速で、毎秒10TBの総帯域幅を実現する。CPUはNeoverse V2設計に基づいている。

SIGGRAPHの基調講演で、Nvidiaのジェンセン・フアン最高経営責任者(CEO)は、「チップは生産中で、年末くらいにサンプル出荷する予定だ」と述べた。

パッケージ内の2つのGH200チップは、282GBのHBM3eメモリを搭載し、これは従来のGH100チップの192GBのHBMメモリより改善されている。また、8ペタフロップスのAIコンピューティング能力と、10TB/秒のHBM3e性能を持つ。

このチップセットは、どんな大規模な言語モデルでも扱うことができ、「狂ったように推論することができる」とフアン氏は語った。

Nvidiaによると、このチップは3.5倍の大きさのモデルを実行でき、より高速なメモリ帯域幅で性能を向上させることができるという。

同社は、256基のGH200 GPUを、1エクサフロップのAI性能を実現する「グレース・ホッパー」スーパーコンピューターと呼ばれるシステムに搭載する予定だ。ジェンセン氏はこのシステムを、256個のGH200がすべて連動して動作する「世界最大のシングルGPU」と呼んでいる。

現在の大規模学習モデルはすべて、グレース・ホッパー・スーパーコンピューターのようなシステムでトレーニングされている。将来的には、AIがより多くのデバイスに分散されるようになるため、あらゆるアプリケーションが大規模な言語モデルに関与するようになるだろう、とフアン氏は語った。

Hopper GPUは、業務の生産性を高めるためにAIを探求する企業が増えるにつれて需要が高まっている。GPUは供給不足であり、同社もそれを認めている。

フアン氏はまた、この分散モデルに対応するため、GPUロードマップをどのように分解していくかも示した。グレース・ホッパー(Grace Hopper)スーパーコンピューターを頂点に、サーバーやデスクトップGPUなど、要求の異なるGPUに分散させることができる。 

SIGGRAPHでは、AIやグラフィックス・アプリケーション向けのRTXとL40S GPUも紹介された。