Graphcore、IPU搭載ポッドの大型化を実現
Oliver Peckham

ステルス状態から4年後の2020年に第2世代のIPU(Intelligence Processing Unit)を発表したGraphcore社は、市販されているIPUベースのシステムとしては最大規模となる「IPU-POD128」と「IPU-POD256」で製品ラインアップを強化している。
![]() |
|
IPU「GC200」。画像提供:Graphcore社 | |
今回発表されたIPU-POD128は、32枚のGraphcore M2000コンピュートブレードに128個のGraphcore GC200 IPUを搭載し、8.2TBのメモリを搭載している。また、フルサイズのデータセンターキャビネット4台分の大きさに相当する巨大なIPU-POD256は、64枚のM2000に256個のGC200を搭載し、16TBのメモリを搭載している。これらのシステムは、それぞれ8ペタフロップスと16ペタフロップスのFP32演算性能を発揮する。
Graphcore社のGC200 IPUは、594億個以上のトランジスタと900MBの高速SRAMを搭載しており、同社が「史上最も複雑なプロセッサ」と呼ぶものだ。Graphcore社は、今回の新モデルが同社のIPUを「機械知能演算の世界標準」にすることを目指していると述べている。
GC200は通常、4つのチップを搭載したM2000コンピュートブレードに搭載され、ブレードあたり約1ペタフロップの「機械知能」演算能力を発揮する。これらのブレードは、Graphcore社のポッドに搭載される。例えば、これまで販売していたIPU-POD16は、GC200 IPUを4つのM2000ブレードに16個搭載し、1テラバイトのメモリを搭載している。一方、IPU-POD64は、GC200を16枚のM2000に64個搭載し、4.1TBのメモリを搭載している。
![]() |
|
IPU-POD256。画像提供:Graphcore社 (IPU-POD128は4台のキャビネットではなく、2台のキャビネットで構成されている。) |
|
Graphcore社によると、これらのシステムは、Transformerベースの大規模な言語モデルのトレーニングや商用スケールのAI推論の実施など、負荷のかかるタスクを俊敏に処理できることから、「クラウドハイパースケーラー、国立の科学技術計算研究機関、金融サービスや製薬などの市場で大規模なAIチームを抱える企業」をターゲットとしている。Graphcore社は、BERTにおいて、IPU-POD16からIPU-POD64への移行時に88%のスケーリング効率、IPU-POD64からIPU-POD128への移行時に97%のスケーリング効率という、ポッド全体での強力なスケーリング結果を示した。ResNet50を使用した場合、IPU-POD128からIPU-POD256への移行では95%のスケーリング効率が得られている。
IPU-POD128とIPU-POD256は、現在、Atos社をはじめとするGraphcore社のパートナー企業から顧客に出荷されているが、Graphcore社のクラウドサービス「Graphcloud(グラフクラウド)」からもアクセスすることができる。
Atos社のシニアバイスプレジデント兼HPC・量子部門責任者であるAgnès Boudotは、「Graphcore社のIPU-POD128とIPU-POD256システムをAtos ThinkAIポートフォリオに加えることができ、大変嬉しく思っています。」と述べており、これらのシステムによってAtos社は、「学術研究、金融、ヘルスケア、通信、コンシューマーインターネットなどの多くの分野で、より大規模で革新的なAIモデルを探求し、展開するための顧客の能力を加速することができるでしょう。」と付け加えた。