世界のスーパーコンピュータとそれを動かす人々


11月 1, 2017

富士通、産総研より37ペタフロップスのABCIシステムを受注

HPCwire Japan

John Russell

富士通は、長年計画されてきた人工知能処理向け大規模・省電力クラウド基盤(AI Bridging Cloud Infrastructure、ABCI)を構築することとなったと発表した。このシステムは日本で最速のスーパーコンピュータとなり2018年度より運用が開始される予定だ。ABCIはインテル社のXeon GoldプロセッサとNvidia社のV100 GPUを採用しており、半精度浮動小数点演算性能で550ペタフロップスおよび37ペタフロップスの倍精度浮動小数点演算性能を有することとなる。これは国立研究開発法人産業技術総合研究所(AIST)の調達である。

最新の契約獲得は、富士通がエクサスケールに向けた一か八かのスーパーコンピュータ競争において二つのCPUに跨っていることを意味している。富士通はまたARMプロセッサベースのポスト京スーパーコンピュータを構築している。フラグシップ2020プロジェクトの一部であるポスト京マシンはARMの開発問題に関連して遅延が発生している。

新しいABCIデータセンターは、東京大学の柏IIキャンパスに設置される予定だ。。このシステムは2017年6月に発行されたスーパーコンピュータの最新Top500ランキングに照らし合わせると、日本で1位、世界で3位になる。およそ一年前、最初の報告では、ABCIシステムのターゲットスペックは倍精度で33-ペタフロップスもしくは半精度で130-ペタフロップスであった。(HPCwireの記事を参照、Japan Plans Super-Efficient AI Supercomputer)。計画が公表された時にはまだ発表されていなかったV100テンソルコアは、さらに高いFP16の性能を持っている。

「ABCIの発表で最も注目すべき点は、AIアプリケーションに限らず汎用スーパーコンピュータとして受け入れられ、構成されていることです。発表では一般的に科学アプリケーションに関連付けられる倍精度演算性能とは対照的に、ディープラーニングに関連付けれるようになってきた単精度もしくは半精度のベンチマークを強調しています。」とIntersect360 ResearchのCEOであるAddison Snellは述べている。

「この受注はまた、富士通がエクサスケール・コンピューティング用のポスト京アーキテクチャに向かうために重要なステップです。 SPARCプロセッサではなく、ABCIシステムはIntel XeonプロセッサとNvidia Tesla GPUアクセラレータを使用します。富士通は、この経験を最終的なアクセラレータ付のARMベースに展開させて活用することができるのです。」

次のTop500リストは来月SC17(デンバー)で予定されており、トップはシャッフリングされると予測されている。 9月に、中国はTianhe-2(MilkyWay-2)のアップグレードの詳細を発表しており、現在はTianhe-2Aである。独自のアクセラレータ(Matrix-2000)、独自のネットワークを使用し、OpenMPとOpenCLをサポートしている。 Jack Dongarraの報告によると、アップグレードは約25%完了し、2017年11月までに完全に機能すると見込まれている。

「このシステムの最も重要な機能拡張は、TianHe-2ノードへのアップグレードです。以前のIntel Xeon Phi Knights Corner(KNC)アクセラレータは、Matrix-2000という独自のアクセラレータに置き換えられます。さらに、ネットワークが強化され、メモリが増え、キャビネットの数が増えました。完成したシステムは完全に統合された場合、4,981,760コアと3.4 PBの主メモリを持ち、理論最大性能で94.97ペタフロップの性能を持ちます。これは、既存のTianhe-2システムの性能の約2倍です。 NUDTはまた、OpenMPとOpenCLをサポートするMatrix-20002のためのヘテロなプログラミング環境を開発しました。」と、Dongarraは報告している(TianHe-2Aシステムに関するレポート)。

ABCIが次の6月のTop500リストに間に合うかどうか、そしてそれがどの順位にあるのかは興味深いこととなるだろう。 37ペタフロップ(ピーク)は上位10位もしかすると上位5位にはいるかもしれないが、その莫大なAI能力と低消費電力は多くの人にとってより大きなストーリーにるであろう。発表によると、産総研は、ABCIをアルゴリズム、ビッグデータ、計算能力を組み合わせて高速AI処理を可能にするグローバルなオープンイノベーションプラットフォームとして展開する計画を立てている。 (下のスライドは産総研の早期発表からのもの)

「ABCIは、世界最高クラスの機械学習処理能力、高性能演算能力、そしてエネルギー効率を提供するAIアプリケーションのクラウドプラットフォームとして、さまざまな分野で新しいアプリケーションを開発することが期待されています。さらに、このシステムは、最新のクラウドプラットフォーム技術をオープンなデザインで一般に公開するなど、業界で最先端のAI技術の利用を促進すると予測されています。」と富士通は述べている。

富士通によれば、ABCIは、「高性能な計算システム、大容量ストレージシステム、そしてさまざまなネットワーキング技術を備えている。」

「[ABCIのコア]は、富士通のPRIMERGY CX400 M4マルチノードサーバに搭載された1,088台のPRIMERGY CX2570 M4サーバで構成されます。各サーバには、2つのIntel Xeon GoldプロセッサCPU(合計2,176 CPU)と4つのNVIDIA Tesla V100 GPUコンピューティングカード(合計4,352 GPU)、NVMe規格に基づくIntel SSD DC P4600シリーズがローカルストレージとして搭載されています。」

「また、2UサイズのシャーシPRIMERGY CX400 M4には、GPUコンピューティングカードを搭載した2台のPRIMERGY CX2570 M4サーバノードを搭載でき、高い設置密度を実現します。さらに、サーバに”温水冷却”を利用することで、大幅な省電力を実現することができるのです。」

富士通は近年、AIやディープラーニングに多額の投資をしてきている。それには、カスタムAIプロセッサ「Deep Learning Unit」(HPCwire記事、Fujitsu Continues HPC, AI Pushを参照)の開発を含んでいる。富士通のDLUのロードマップには、複数の世代がある。第一世代のコプロセッサが2018年に登場し、続いて第二世代の組み込みホストCPUが登場する。ニューロモルフィックまたはコンビナトリアル最適化アプリケーションをターゲットとした、将来性のある専用プロセッサがある。今回の発表では、DLUの言及はなかった。

富士通はAIとHPCの技術を「ハードウェアとソフトウェアの高度なシステム要件基準」に適用する予定であると述べ、ABCIプロジェクトから学んだ教訓をHuman Centric AI Zinraiイニシアティブにも活用する計画だという。