世界のスーパーコンピュータとそれを動かす人々



  1. Facebook

  2. Twitter


2月 6, 2017

HPCの歩み50年(第108回)-2004年(e)-

小柳 義夫 (神戸大学 特命教授)

アメリカ政府は最先端コンピューティング再生タスクフォースを設立し、地球シミュレータを追い越し、今後科学技術でのリーダーシップを確保するための計画を策定した。これに基づき「2004年エネルギー省最先端コンピューティング再活性化法」が議会に提出され、2004年11月に成立した。

redstorm

アメリカ政府の動き

1) 米国訪日視察団
WTEC (World Technology Evaluation Center, Inc.)は世界の技術を評価する非営利組織であり、2001年にLoyola University (Maryland)内のセンターから組織変更し、独立組織に変わった。この組織が2004年3月29日~4月3日にアメリカ政府諸機関(NSF, NITRD, DOE, NASA)の支援のもと、“High-End Computing Research and Development in Japan”という調査活動のため、視察団を日本に派遣し22の研究所、大学、企業等を訪問した。駐日アメリカ大使館がサポートしていた。筆者のところには、3月30日(火)午後2時にJack Dongarra, Rupak Biswas, Peter Paulの3人が来訪した。訪日メンバーとしては、他に、Al Trivelpiece (chair)と Katherine Yelicがいたようである。報告書が公開されている。2003年のところに書いたように、アメリカ科学アカデミー(NAS)の訪日調査が2004年3月23日~26日に行われたが、別の活動である。Dongarra教授は両方に参加していたので、継続して日本に滞在していたと記憶している。

2) HECRTF
既に述べたように、2003年3月、ホワイトハウスのNSTC(National Science and Technology Council、国家科学技術会議、1993年11月発足)は、特別プロジェクトとしてHECRTF(High End Computing Revitalization Task Force、最先端コンピューティング再生タスクフォース)を設立し、アメリカが今後科学技術でのリーダーシップを確保するための計画“Fedearal Plan for High-End Computing”を作成した。2004年5月に計画の策定が完了し、報告書“Report of the High-End Computing Revitalization Task Force”が5月10日付けで出版された。これに基づき“Department of Energy High-End Computing Rivitalization Act of 2004”が2004年11月に成立した。(野村稔著『米国政府の高性能コンピューティングへの取り組み』、「科学技術動向」2005年2月号参照)

それによると科学技術の多様な分野における目標達成には現在のリソースの100倍~1000倍の能力が必要であり、今後のハードウェア、ソフトウェアにおけるコア技術の研究開発、科学・工学コミュニティーでいつでも利用可能なHECのcapability(最高性能)とcapacity(計算量)の向上、ユーザ要求を満たすHECシステムの政府機関での効率的な調達の戦略に関する今後15年のロードマップを示している。そのためには年度当たり$900Mの予算が必要である。研究開発については、科学技術におけるニーズと商用システムの性能とに乖離があり、量産されるプロセッサではHEC向けのプログラム開発が非常に難しくなっていることを指摘している。このために以下の3つの勧告を行っている。

a) 最先端の研究開発
このタスクフォースの第一の目的は最先端コンピュータシステムの有効な利用を制限する主要な技術障壁を克服するために10年~15年の継続する研究開発プログラムを整備することである。今日、貧弱な信頼性、価格の上昇、ソフトウェア開発の機器、アーキテクチャ上の問題(たとえばプロセッサとメモリに不均衡など)は、すべて科学技術や国家安全保障の性能を制限するものとなっている。これらの障壁を解決するためにHECRTF計画は基礎研究、高度な開発、プロトタイプの開発、検証と評価などを含む総括的な戦略を含んでいる。この計画は、ハードウェア、ソフトウェア、システムの開発の技術的ロードマップを含み、現行のプログラムと提案するプログラムとの比較を行っている。これにより、今後何十年にもわたる世界一の地位が可能にする、最先端コンピューティングや科学技術の分野で確実なリーダーシップをもたらすのである。
b)最先端資源
国家的な使命に最先端のコンピューティング資源を提供するには3つの課題がある。まず、科学技術的な使命をもついくつかの機関は最先端コンピュータへのアクセスを欠いている。次に、ある分野では最先端コンピューティングは研究開発に非常に有効に働いているが、資源が目一杯である。最後に、現在の資源は多くの重要な大規模問題を解くには不十分である。これらの3つの問題に対処するため、機関間の協力戦略を打ち出す。
c) 調達
HECRTF計画は、連邦の調達プロセスの効率を改良するためにいくつかのパイロットプロジェクトを提案する。これは政府にも産業界にも利益となるであろう。この中には、ベンチマーク、トータルコスト(導入から維持まで)のモデル、機関間での共同調達、調達に決定的に重要な問題を可視化することなどが含まれる。

この計画は現行のプログラムとは違う新しいアプローチを提案している。現在のプログラムでは、最先端コンピューティングにおいてある程度の漸進的な進歩はできるかも知れないが、現在の厳しい[日本との]競争でアメリカのリーダーシップを確保することもできないし、最先端コンピューティングへの加速する要求とペースを合わせることもできない。

3) High-End Crusaderの批判
2月頃からHPCwireにHigh-End Crusader(「最先端計算十字軍」というような意味であろうか?)と名乗る匿名のコメンテータがしばしば登場して論陣を張っていた。3月にはHECRTFは死んだとして、PC-Cluster や Blue-Gene で高速に処理できるような問題だけではないと主張し、SMPクラスタではペタフロップスはできない、LINPACK がすべてであるかのような議論は人を誤らせると批判していた。High-End CrusaderはHPCwireの2004年6月6日号上の長文の記事で、このPlanに対しても鋭い批判をあびせた。この著者は、この報告書がHECの重要性を述べたことを高く評価しながらも、計画に不明瞭な点が多く、緊急性の認識に欠けており、予算の目途が立っていないと述べている。そして、このHECRTF計画と、以前に出た二つのレポート、”Report on High Performance Computing for the National Security Community”(IHEC Report, July 2002, U.S. Department of Defense)とと “Workshop on: The Roadmap for the Revitalization of High-End Computing“(June 16-18, 2003, Computing Research Association)とを比較している。確かにHECRTF計画は、HECの研究開発に連邦政府の予算を要求し、先進システムの必要性を論証し、「持たざるもの」にも最先端コンピューティングの恩恵を及ぼすこと、合理的なベンチマークの必要を述べ、調達の改善を示唆している。これは高く評価される。しかし1990年代初頭にCOTS(汎用製品)に基づく先進的コンピュータを推進した[ASCIなど]ことにより、アーキテクチャの研究が廃れてしまったことを指摘している。COTSによる疎結合のシステムはスケールせず、真に大規模な問題を取り扱えないと、high-end computingのためのより専用的なアーキテクチャを推奨している。Cray社の関係者であろうか。

4) High-End Computing Revitalization Act of 2004
第108回アメリカ連邦議会には、revitalizationを法案名に掲げた法案が少なくとも3件(H.R.4516, S. 2176, H.R. 4218)審議された(H.R.=House of Representatives 下院、S.=Senate 上院)。このうち、“H.R.4516 – Department of Energy High-End Computing Revitalization Act of 2004” 「2004年エネルギー省高性能コンピューティング再生法」は、2004年11月17日に可決され、11月30日Bush大統領の署名をもって法律となった。この法律はエネルギー小委員会の議長Judy Biggert (R-IL)が提案し、下院は7月に採択していた。上院は科学委員会との交渉結果を反映させて修正し、10月に全会一致で可決した。今回、修正案が下院で再可決され、署名のため大統領に送られたものである。

この法案は、スーパーコンピューティングのためにDOEに対し2005年度(2004年10月~2005年9月)に$50M、2006年度に$55M、2007年度に$60Mと合計$165Mの資金の支出権限を認めている。DOEはこの資金をつかって、HECの研究、スーパーコンピュータの開発・購入、リーダーシップ・システム関連施設の設置と運営、ソフトウェアの開発・保存センターの設立、民間への技術移転などを行う。

連邦下院には、2004年4月27日に同種の別の法案“H.R. 4218, the High-Performance Computing Revitalization Act of 2004”が提出され、科学委員会で審議されて可決されたが、上院に送られたままのようである。S. 2176については不明。

5) DOE
2月に2005年度(2004年10月~2005年9月)のDOE (Department of Energy)予算案が報じられた。これは前年度より4%増で歴代最大であり、とくに最先端コンピューティングとそれによる科学研究に重点を置いている。総額$24.3Bのうち$204MはASCR (Advanced Scientific Computing Research program)に割り付けられている。また、$38Mは次世代コンピュータアーキテクチャプロジェクトに当てられる。ナノテクノロジー研究には昨年より$8M多い$211Mが割り当てられ、4つのセンターが設置される。ITシステムの認証のために$107M、サイバーセキュリティの研究開発に$99Mなど景気がよい。

また、5月頃にはDOE傘下のORNLがANLなどと連携して、NLCF (National Leadership Computing Facility)という5年計画で地球シミュレータを上回るスーパーコンピュータの開発に取りかかることが報じられた。計画によると、現在ORNLにあるCray X1 (10 TFlops)を倍に増強し、2005年には20 TFlopsのCray Red Stormを入れる、とのことであった。ANLは5 TFlopsのIBM Blue Geneを入れ、2006年には100 TFlopsのCray X2を入れ、2007年には250 TFlopsに増強する。そのための建屋は170,000 sqft (15300 m2、4600坪)で、計算機室は40,000 sqftでスタッフは400人。電力は12 MWでTVA(テネシー渓谷開発庁)から供給するとか。これらの資源を気候シミュレーションや新薬開発を初め、自動車、航空機、化学などの諸産業に提供する。ASCIプロジェクトが軍事目的を中心としているのに対し、これは民生産業界への貢献を謳っている。

2004年8月には2006年度予算(2005年10月~2006年9月)の議論が始まり、ブッシュ政権はHPCに優先的に投資すると述べた。

6) INCITE Program
DOE長官Spencer Abrahamは6月、革新的な大規模計算科学プロジェクトを支援するために前年開始した公募制の資源提供プログラムINCITE (the Innovative and Novel Computational Impact on Theory and Experiment)募集が始まったことを発表した。今回は、NERSCのIBMの計算資源550万ノード時間(全体の10%に当たる)と、100 TBのデータストレージを提供する。このプログラムは大学、研究機関および産業界からの提案を求める。このプログラムの趣旨から、少数の大規模計算の計画を受け入れる。要求資源は100倍を超えたので、2004年ORNLに、2006年ANLに新たな資源を用意する予定である。

7) SNL (Sandia National Laboratory)
2003年のところに書いたように、科学技術の観点から政府に提言を行う独立グループJASONはASCI Qが地球シミュレータに負けたことに注目し、今後どんな性能改善が可能かを議論していた。ASCI QのようなSMPクラスタでは高い性能を安定的に実現することは困難であることから、ASCI Redの後継としてRed StormというMPPを開発することが2002年ごろ決まっていた。製作はCray社が担当し、2 GHzのOpteronプロセッサ11648個をCray独自の相互接続網で結合する計画である。詳細については大原雄介氏の記事「ASCI Redの後継Red Storm」を参照。

2004年7月、SNLでRed Stormの開発を担当するBill Camp部長は、9月末までに41.5 TFlopsのマシンを設置し、1月までに稼働させると述べた。2005年末までにdual core processorに置き換える。Core当たり25%高速なので、ピーク性能は100 TFlopsになる予定である。相互接続網以外ほとんどがCOTS(汎用品)の部品を用い、空冷で、地球シミュレータの1/4の電力しか消費しない。価格も安い。相互接続はSeaStarネットワークチップが担当し、バンド幅は双方向4.5 GB/s、レイテンシは最大5 μsである。SeaStarチップはPowerPC 440 coreを用い、IBMが製造した。Opteronプロセッサとは800 MHz DDR Hypertransportで接続され、SeaStar同士は3次元メッシュ接続である。Red StormはCray XT3として、quadcore版はXT4として商品化された。

Top500上でのRed Stormの動向は以下のとおり。最初は5000コアで、当初の予定よりは遅れているようである。なお、dual coreなのに奇数なのはなぜであろう。

日付 順位 プロセッサ コア数 Rmax (TFlops) Rpeak (TFlops)
2005/6 10 2.0 GHz 5000 15.25 20
2005/11 6 2.0 GHz 10880 36.2 43.5
2006/6 9 2.0 GHz 10880 36.2 43.5
2006/11 2 2.4 GHz dual 26544 101.4 127.4
2007/6 3 2.4 GHz dual 26544 101.4 127.4
2007/11 6 2.4 GHz dual 26569 102.2 127.5
2008/6 13 2.4 GHz dual 26569 102.2 127.5
2008/11 10 2.4 dual / 2.2 quad 38208 204.2 284.0
2009/6 13 2.4 dual / 2.2 quad 38208 204.2 284.0
2009/11 17 2.4 dual / 2.2 quad 38208 204.2 284.0
2010/6 21 2.4 dual / 2.2 quad 38208 204.2 284.0
2010/11 31 2.4 dual / 2.2 quad 38208 204.2 284.0
2011/6 36 2.4 dual / 2.2 quad 38208 204.2 284.0
2011/11 50 2.4 dual / 2.2 quad 38208 204.2 284.0
2012/6 82 2.4 dual / 2.2 quad 38208 204.2 284.0

 

8) ORNL (Oak Ridge National Loboratory)
DOE長官Spencer Abrahamは、2004年5月12日講演を行い、地球シミュレータをしのぐ50 TFlopsのスーパーコンピュータを2年間$50MでORNL(テネシー州)に構築すると発表した。「われわれは、大きな配当、重大な科学的発見、有意義な技術革新、医療の進歩、経済競争力の強化、生活の質の向上がもたらされることを期待して、米国の科学インフラに多額の投資を行っている」。ORNL所長のJeff Wadsworthは、「本所のNLCF (National Leadership Computing Facility)は、アメリカ中の科学者技術者に、所属や予算とは無関係に開かれている」と述べた。ORNLの計算機科学・計算科学担当副所長のthomas Zachariaは、「NLCFスーパーコンピュータは、人間の理解の限界にチャレンジするスケールろまで科学計算を加速させる」と述べている。

担当するCray社によれば、まず現在のCray X1を20 TFlopsに増強し、2005年には20 TFlopsのRed Storm型のシステムを付加する。2006年には100 TFlopsに、2007年には250 TFlopsに増強するとのことである。

Top500によると実際の設置は以下の経過をたどった。

Cray Vector

初出 順位 機種 コア数 Rmax (TFlops) Rpeak (TFlops)
2003/11 20 Cray X1 252 2.9329 3.2256
2004/6 20 Cray X1 504 5.895 6.451
2005/11 17 Cray X1E 1014 14.955 18.333

 

Cray XT-series

2005/6 11 Cray XT3 2.4 GHz 3748 14.170 17.990
2005/11 10 Jaguar-Cray XT3 2.4 5200 20.527 26.960
2006/11 10 Jaguar-Cray XT3 2.6 dual core 10424 43.480 54.2048
2007/6 2 Jaguar-Cray XT4/XT3 23016 101.700 119.350
2008/6 6 Jaguar-Cray XT4 2.1 quadcore 30976 205.000 260.200
2008/11 2 Jaguar-Cray XT5 2.3 quadcore 150152 1059.0 1381.4
2009/11 1 Jaguar-Cray XT5 2.6 6core 224162 1759.0 2331.0
2012/6 6 Jaguar-Cray XK6 2.2 16core + NVIDIA 2090 298592 1941.0 2276.09

このあとTitanに続く。

9) NASA
2002年6月のTop500から首位を独占してきた地球シミュレータ(35.86 TFlops)を凌駕するスーパーコンピュータの競争が起こっていた。NASAとSGI社は、2004年10月29日、NASA Ames LaboratoryにItanium 2ベースのスーパーコンピュータColumbiaを設置し、世界最高の性能を出したと発表した。接続はVoltaire Infinibandである。Columbiaという名称は、2003年2月1日、大気圏再突入中に空中分解し、乗員7名全員が死亡したスペースシャトルを記念したものである。この事故への対応としてAmes研究所に多額の予算が付き、コンピュータも増強されたとのことである。このときの発表では、設置した20ラックのうち16ラック(すなわち、10240プロセッサの内8192個)を使って、Linpackで42.7 TFlopsの性能を出している。競争相手であるIBM社内設置の Blue Gene/Lの性能は36.01 TFlopsなので、Columbiaこそ「世界最速のスーパーコンピュータ」という訳である。BlueGene/L が多少性能改善をしても、残りのプロセッサを稼働させれば追い抜けると踏んでいた。競争はデッドヒートの様相を示してきたが、さて11月のTop500の結果は?

10) NSF PACI
NSF (National Science Foundation)は1997年10月からPACI (Partnerships for Advanced Computational Infrastructure)を発足させ、Illinois大学のNCSA (National Center for Supercomputer Applications)を中心とするコンソーシアムNCSA (National Computational Science Alliance)と、San Diego Supercomputer Centerを中心とするコンソーシアムNPACI (National Partnership for Advanced Computational Infrastructure)が活動していたが、2004年9月末にプログラムを終了した。

11) TeraGrid
2001年8月にNSFはTeraGridと名付けられた巨大なリッド環境の構想を発表していたが、そのPhase Iが2004年2月やっと動き出した。動き出したのは、800個以上のItanium 2を含むIBMのLinuxシステムであり、2003年春に設置されたNCSAの2.7 TFlopsのクラスタ、およびSDSCの1.3 TFlopsクラスタである。PSC (Pittsburgh Supercomputing Center)の3000プロセッサAlphaServerSC(6 TFlops)もTeraGridのインフラの一つである。Phase Iは総計20 TFlopsの計算能力を提供する。Phase IIは、2003年12月に設置され、この春にも稼働する予定で、更に11 TFlopsを提供する。

NSF側の責任者のPeter Freeman教授(Georgia Tech)は、「TeraGridシステムの第1段が公式に稼動し科学研究が始まったことをうれしく思う。最先端のスーパーコンピュータ資源は、サイバーインフラストラクチャにとって本質的であり、TeraGridはNSFが最高性能の革新的な計算資源を提供することにコミットしていることを示している。」と述べている。Freeman教授は2月初め日本を訪問し、関口智嗣、松岡聡、村井純、筆者などと会っている。

12) National LambdaRail
National LambdaRailはアメリカにおける科学研究のための光ファイバネットワークであるが、専用のdark fiberを設置し波長多重により高速転送を実現する。アメリカの有力大学・研究機関や企業が参加したコンソーシアムにより運営される。第1段階として、シカゴにあるTeraGridの施設とPSCが結ばれ、2003年11月17日に始動した。2004年には全米に光ファイバが設置された。40チャンネルの波長が使用され、1チャンネル当たりの転送速度は当初10 Gbpsであった。その後、40 Gbpsに高速化され、100 Gbpsも開発中である。同じファイバを使って、技術の進歩とともにバンド幅を向上できるのが特徴である。

13) NCSAの新所長
NCSA (the National Center for Supercomputing Applications, The University of Illinois at Urbana-Champaign)の創立者所長Larry Smarrを継いで4年間所長を務めてきたDaniel A. Reedは、University of North Carolina at Chapel Hillに新たに作られる学際計算センターの初代所長としての指名を受諾することを2003年12月に発表していた。就任は2004年1月。

10月に化学者のThom H. Dunning Jr.が、大学理事会の承認を経て、2005年1月から所長の任に付くことが発表された。3代目である。

次回はヨーロッパの動きと世界の学界の動き。ISC2004で発表されたTop500に初めて中国製のスーパーコンピュータDawning 4000AがTop10に入った。

(タイトル画像: Red Storm Supercomputer )

left-arrow 50history-bottom right-arrow