世界のスーパーコンピュータとそれを動かす人々


7月 24, 2015

日本、HPCとビッグデータの収束を準備

HPCwire Japan

Tiffany Trader

HPCとビッグデータとして知られる技術領域の間に境界を引く仕事は年々複雑になってきている。多くの人々は、これら2つの収束を期待しているのだ。この収束に大きな可能性のある有望なHPC人に、東京工業大学の学術国際情報センターの松岡聡教授がいる。

5月に開かれた2015年Blue Watersシンポジウムでの松岡博士の講演で彼は、データを設計することは単なる戦略ではなく、ムーアの法則の死と急成長するデータの津波という2つの制御できないものに対する論理的で避ける事の出来ない対応であると明確にした。

HPCI(日本のハイパフォーマンス·コンピューティング·インフラ)コンソーシアムの一部として、東京工業大学は、今後5年間で多くのスーパーコンピュータを扱っていく予定だ。この発表で松岡博士は特にデータとメモリが関連しているとして、これらのプランを説明し、そしてビッグデータとHPCのつながりをさらに深く掘り下げている。

2016年に東工大に導入される予定となっているスーパーコンピュータTSUBAME3.0の仕様は、エクストリーム・コンピューティングと膨大なデータ処理要件の両方を満たす必要があるとしている。TSUBAME2/2.5の後継であるTSUBAME3.0は、超効率的な液体冷却と電力制御、ペタバイトの不揮発性メモリ、ならびに低コストのペタビット級のインターコネクトなどを含む革新的な技術が特徴である。

TSUBAME2.5が日本最速のスーパーコンピュータ系にどのように匹敵するかを見るにあたって、松岡氏は「京コンピュータ」の所有コストが30倍高い事を表すスライドを見せている。彼は、「京」は浮動小数点ユニットを調整していないと指摘し、また、TSUBAME2.5は汎用プロセッサ、シリコンフォトニクス、メニーコアチップ、高速メモリを含む最新の技術を利用してこのコスト効率を実現していると主張している。これは、すべてのノードにSSDを使う初めてのHPCシステムでもあり、今日の「バーストバッファ 」技術のような働きをする技術でもある。

革新的な設計原理もまたTSUBAME3.0の要件を満たしている。松岡教授は来たるシステムの5つの面を示している:

20150618-F1-Five-Facets-of-TSUBAME3.0-Innovation-2015

「そのマシンのターゲットは20ペタバイトの範囲でしょう。」と松岡教授は言っている。「これは非常に高容量メモリ、高帯域幅ネットワークなものになるでしょう。しかし、入出力を速めるためにノードにおける非常に高容量、高帯域幅を持つことになるだけでなく不揮発性メモリを含むI / Oサブシステムになるでしょう。コストが許すならば、うまくいけば、ペタバイト単位のフラッシュが可能となり、毎秒数テラバイトでのI / Oサブシステムを駆動することができるようになります。」

TSUBAME3は、US XSEDEプログラムと規模が似ているHPCIプログラムの重要な部分である。HPCIは現在約40ペタフロップスの総合演算能力を持っており、2022年までに1/2エクサフロップス以上に到達する予定だ。松岡教授はスーパーコンピュータ「京」の後継、そしてHPCIと日本の象徴となるシステムは少なくとも数百ペタフロップス、恐らくUS CORALマシンよりも速い、しかしエクサの壁を超えるまではいかないだろうと指摘している。

さらに、これからの10年間において9つすべてのセンターの計画の概要には、2021年から2022年の期間にエクサスケールのマシンが含まれていない、しかし松岡教授によると、現在のスケジュールが優先されるならば、すべての主要な学術スーパーコンピュータの総容量は、その期間内にエクサフロップに到達する。

20150618-F1-Japan-HPCI-Towards-the-Next-Flagship-Machine-2015

改訂されたロードマップは、大きく驚くものではない。日本は、FLOPS中心の予定を進めることによって、2020年までにエクサスケールのマシンを提供することが、アプリケーションの領域における実世界の性能を犠牲にするという結論に早くから達していた。

HPCにおける主要な問題が、ペタスケールからエクサスケール、そしてデータに移行していると松岡教授は考えている。彼は、一連のアプリケーションの(例えば、デンドライトシミュレーション、街全体のシミュレーションなど)のメモリ使用の要件、特にメモリ帯域幅に対するメモリ容量を説明している。エクサスケールと効率性(解答への妥当な時間)に関してこれらをプロットすることによって、ほとんどのアプリケーションは大メモリ容量と高いメモリ帯域幅の両方を必要とすることが明らかである。

残念ながら、今後5年間に作られるマシンのほとんどは、このカテゴリを満たすことができない。松岡教授は、消費電力とコストの制約、2020年の汎用マシンの代表となるスーパーコンピュータでさえこれらの要件は満たしていないだろうし、もしこれらの要件を満たしているならば電力とコスト制約は満たしていないだろうと松岡教授は説明している。

「技術が進歩していくにつれて、問題はFLOPではなく、主にメモリとなります」と彼は述べている。

いくつかの有望な技術があるが、それらは、高速メモリと大容量の間で引っ張り合っている。メモリの3D統合、および将来のプロセッサ、 Xeon Phi、Nvidia Pascal と富士通のSparc FX11、を考えてみよう。これらは3D積層メモリ技術を利用している。これらによって非常に高速なメモリを持つことができるが、メモリの容量は制限されており、それによって容量と帯域幅の要件が満たされる事がない証明となる、と松岡教授は述べている。一方、非揮発性のメモリは、大容量であるが、潜在的に従来のDRAMより遅くなるのだ。

これが導くものは非常に深いメモリ階層のシステムであり、その階層に対処するためのソフトウェア技術の必要性につながる。問題は、アーキテクチャの変更に対応することができ、過度の複雑さと主要なソースコードの変更なしにプログラムすることができるアルゴリズムが出来るか、という事である。

松岡教授と彼の同僚は、通信低減された容易にプログラム可能なアルゴリズムのクラスを研究している。LES気流シミュレーションのようなステンシル·コードのように、シミュレーションサイズがデバイスのメモリ容量によって決まるといった状況で課題は発生する。これは、ハイブリッドCPU-GPUノードを持つTSUBAME2.5のメモリ階層の議論と、どのようにそれがこの困難な問題を解決するために役立っているかを松岡教授にもたらした。(具体的な技術の詳細については21時45分から37:30を参照)。

メモリ階層からビッグデータへ

かつて、ビッグデータはお金を稼ぐために人々のプライバシーを掘る事と同じようなものであった、
と教授は言い、しかし現在では、ビッグデータはそれ以上のものである。

エクストリーム・ビッグデータはサイロを破壊し、問題の誘導を可能にする。速度とボリュームが非常に大きくなったときには、それはスーパーコンピューティングの問題である。これはより豊富なデータソースとオープンデータの移動によって、科学や工学の分野においてすでに起こっているのだ。特定のアプリケーションのタイプは多くあるが、いくつかの重要なものには、ソーシャル・ネットワーク関連の大規模なグラフ処理、社会シミュレーション、高度なシーケンスマッチングを用いたゲノム解析、リアルタイムで大量のデータの同化を必要とする天候問題などがある。

松岡:「人が私に「未来のクラウドはどのようなものになっているのですか?」と尋ねてくる時には「未来のクラウドはすくなくともビッグデータを扱う中核を担っていて、それが必然的であるために、スーパーコンピュータみたいなものになっているでしょう」と言っています。」

無料計算の終焉、フリーデータの台頭

情報満載の発表の最後に、松岡教授はデータを最適化することは戦略的だけでなく、回避不能である根拠を述べている。ムーアの法則が有効である限り、10年ごとに1000倍の無料のランチは、性能を向上のために他を見る動機を残す事はなかった。しかし性能が落ちたり、もはや使い物にならなくなった時は、何を基準にマシンを交換すればよいのだろうか? これは深刻な問題でありが、性能の向上はデータ中心のコンピューティングをしていればまだ可能であると彼は主張している。

20150618-F1-Towards-TSUBAME4-and-5_Satoshi-Matsuoka_2015

松岡教授の主張の要点は、以下の引用された段落に展開されている:

リソグラフィーの縮小化が終わると、トランジスタ当りの電力は基本的に一定になるので、私達が何をしようと電力制限を受けることになる。私達の行う計算は、ある電力によって賄えるトランジスタの数によって限界が決まりますが、トランジスタの電力は一定になるので、1度の計算に使用できるトランジスタの数は一定になるであろう。

我々はトランジスタをもっと使う事にでより大きなマシンを構築することができるが、それら全てを同時に使用する事はできない。多くの人が予測するように、私達は特化する事になるのだ。データの種類ごとにカスタマイズされた回路があるが、データの種類や私達の行う計算の種類に応じて、私達はこれらの回路をそれぞれ独立していろいろな時に使用する事になるし、すでにそうしている。

メモリは、3Dスタッキングや直接シリコンスタッキングおよび低電力NVM(例えばReRAM)における次世代の技術革新によって継続的に容量が増加する。私達がシリコンを3Dに統合した際には、データの移動は、テラビットレイヤーまで行くことができる次世代の光学系で一定に保たれる。全エネルギーコストはスタックにおける[より小さな動きを容易にする] 3D /垂直デザインによって抑えられるだろう。光学系を持って、実行にある程度のコストがかかるとしても、どんなに距離であろうと(ある点までは)データの移動は一定であるだろう。エネルギーの観点からみてある程度まで速くなりはするが、一旦実装されたら、どんなに大きなマシンを作ろうとも、エネルギーコストは一定となるだろう。そしてロングホール搬送方式を使うことによって、帯域幅を広げることができる。これは、データが無料となるが、計算が高価になることを意味している。そして、これは私たちがエクサスケールについて考えているものと全く逆なのだ。

20150618-F1-Technology-Prediction_data-centric-computing_Satoshi-Matsuoka_2015

松岡教授はこの時代の変化がおおよそ2025年から2030年頃にムーアの法則の終焉と共に起きると予想しており、彼のパートナーや同僚と共にこの新しい時代への準備を支援している。データプロパティに基づくアルゴリズムを加速することは、この課題の重要な部分である。 「容量や帯域幅などのデータに関連するデータ定数の成長が原動力となり、新たなムーアの法則となるのです」と教授は言う。産総研、日本政府系の研究所、日立などの多くのプロジェクトは同様の指針となる原則の下で進められている。

2022年までに、日本は京コンピュータ全体をTSUBAME4の1つのラックに納めようとしている。プロジェクトは、HP(The Machine)とカリフォルニア大学バークレー校(FireBox)で進行中の取り組みに類似している。

最後に、松岡教授はHPC-ビッグデータの収束が避けられない場合だけでなく、未来スーパーコンピューティングが次に依存すると主張している:

「重要なのはFLOPSではなく、データ特性における帯域幅と全体の容量の向上を利用してどのようにアルゴリズムやエコシステムを扱っていくか、また関連したソフトウェアの問題を解決するかという事です。データに着目することはビッグデータ要件によって避けられない事だけでなく、私達の未来の世代のマシンをスピードアップすることができる唯一の方法であり、もし私たちがそれを達成しない場合には、CrayやIBM、Fujitsuはスーパーコンピュータを作るのを止めるかもしれません。」