世界のスーパーコンピュータとそれを動かす人々


4月 9, 2014

NVIDIA、TitanスーパーコンピューターでGPUの進歩をハイライト

HPCwire Japan

Nicole Hemsoth

2014年3月にサンノゼで開かれたGPU Technology Conference (GTC) において、大規模な科学およびエンタープライズHPCアプリケーションのために、特定のプログラミングの挑戦に関する、多くのプレゼンテーションが行われた。オークリッジ国立研究所にあるTitanシステムは、いくつかの会議に渡って、よりよい状況において大規模にGPUを使うという、鍵となるテーマになった。

オークリッジ国立研究所計算科学センターのディレクターであるJim Rogers氏は、27 Peta FLOPSのTitanシステムが18,688個のNVIDIA Tesla K20 GPUをどのように利用しているか、詳細に述べた。研究所は、Keplerのデバイス・ドライバーの最近の更新と、Crayによるメモリー利用およびスケジュールされた作業について洗練された報告を得られるソフトウェアによって、効率を観測できる。Rogers氏によると、若干の特定の操作についての利益を示しているこれらの測定基準から、マルチコアCPUのみを使うアプローチに対して、GPUを使うシステムは5倍以上効率的であると見積もった。

20140327-F1-2

オークリッジ国立研究所ユーザー・サポート・スペシャリスト Fernanda Foertter氏によれば、Titanの上で配分を要請している多くのユーザーに対して、効率と性能のメッセージは満ちあふれている。Titan上でのGPUへの興味とユーザーが必要にしているものについての彼女のプレゼンテーションにおいて、ますます多くのアプリケーションがGPUによる高速化を求めていることに注目した。Titanのユーザーの経験から、アプリケーションを移植し、アクセラレーターを利用し、将来のエクサスケール・クラスのために、展望をまとめられた。このプレゼンテーションでは、TitanのGPUを利用するために、特に複雑な科学的な商用コードのために必要な、コーディング・サポートについて、多くのトピックへの道を開いた。

一般的なシステムの製造と運用の詳細がある一方で、Titanシステムの多くのユーザーは、CPUだけのシステムに対してコードの移植と改良によって、性能を測定するだけでなく、経験を共有したかった。そのようなユーザーの中に、 SURFsara HPCアドバイザー Evghenii Gaburov氏がおり、星と星の相互作用に基づく銀河進化のシミュレーションを、Titanによって1週間でできた。彼は挑戦を秘密にせず、Titanのより進歩したGPUの階層を木構造のコードに使い、若干の重要な努力によって、通信の戦略を最大化し、CPUとGPUの両方をTitanにおいて8000以上にスケーリングできた。

イリノイ大学シニア研究員 James Phillips氏ら他の人々は、Titanと他のGPUによって加速されたスーパーコンピューターの上で彼らのコードが前もって動くための、争いの話を共有した。彼のチームは、Titanを使う前に、既にBlue Waterの上で動くNAMD分子動力学コードを持っていた。また、CUDA 5.5とKeplerの重要な機能を使うにあたり、彼らの古いコードがコア・バリアーを使うという重大なソフトウェアの難問を克服した。そして、計算に要する時間を改善できた。ひとつの結果は、HIV capsidの原子レベルの構造について、完全なモデルができたことだった。

Titanによる気候モデルの努力は、GPUの利用と大規模モデルの解像度改良について、研究者のドアを開ける重要な事例であった。大災害をモデル化している企業 Katriskの共同出資者 Dag Lohmann氏は、最近オークリッジ国立研究所に選ばれた、特定の氾濫現象の計算にTitanを使うに際して、GPUがどのように性能を上げるか説明した。さらに、世界的な洪水危険モデルの文脈で、大災害モデルの大きな概要を提供することに加えて、コード、データ同化、データ・ボリュームなどについて、彼らのCUDAベースの流体力学コードがKeplerの上で動くようにするための、挑戦を詳述した。彼らの仕事の成果により、KatRiskは、高解像度のモデルの洪水予測モデルと地図を作成できる。

20140327-F1-2

また、天気と気候の分野では、NOAA先進計算部門チーフの Mark Govett氏が、NIM次世代天候モデルの開発、並列化、性能を検討した。Titanシステムによって、天気予報の精度が上がるであろう。具体的には、Govett氏は、OpenACCコンパイラーを使っているNOAAの経験について話した。NOAAの並列化工程の重要な要素は、自家製のディレクティブ・ベースFortranからCUDAへのコンパイラーに頼り、Titanの5000ノードを使って高解像度のアプリケーションを可能にした。

他には、Titanスケールでのコード関連の問題についての特定の考えを共有した。例えば、エジンバラ大学EPCCの建築研究者 Alan Gray氏は、Titanの8000以上のGPUの上で動く、彼らの柔らかい物質に関する物理学コードという非常に複雑なアプリケーションについての仕事を解説した。具体的には、CUDAとMPIを併用しようという挑戦と最終的な成功について話して、彼らの通信ライブラリーの詳細を共有した。そして、それは、他のコードにも利用できる。興味深いことに、GPUを使う版とCPUのみの版の両方をサポートする彼らのコードについて、GPUを使う方が3.5倍から5倍性能が良いと証明できた。

Bielfeld大学とIndiana大学の Mathias Wagner氏ら、他の多くの研究者は、QUDAライブラリーによってかららの複雑な量子色力学のコードをTitanに対応させる方法を共有した。類似の文脈で、MicrowayとNVIDIAの開発者 Justin Foley氏は、同じ研究分野のためにさらにQUDAを解説した。そして、それは、Titan GPUの上での格子量子色力学の表現を詳しく解説した。

GE Globalからの研究者は、彼らのコードをスケーリングして、Titan上でのガスタービン・モデルと、3体問題分子動力学コードの進歩と、地震と医療モデルへの応用を話した。

コードの分野では、OpenACCはHPC分野においてホットな話題であった。 Rob Farber氏は、大規模なGPUシステムにスケーリングするための、プログラミングと最適化について、鍵となるトレンドに注目する優れた仕事をした。彼によると、機械学習とビッグ・データ分析について、Titanの16,384 GPUを使って平均13 Peta FLOPSの持続性能を得られた。これは、非常に人気がある話題であった。

HPCwireが以前に指摘したように、GTCイベントは、ゲームとエンターテインメント層を強調しなかった。大規模な解析論、認識コンピューティング、計算機ビジョン、もちろん、科学的な計算に関する関心は、セッションとポスターに関するチャートのトップであった。オークリッジの Jack Wells氏は、「Titanスーパーコンピューターとエクストリーム・スケールスーパー・コンピューティング」を司会し、Titanの物語の文脈で、リアル・ワールドの利用と挑戦をする、主要な研究者の代表的な人々を集めることができた。