新HPCの歩み(第269回)-2008年(h)-
|
DOEはIBM社と協力して、初めてLinpackでPFlopsを超えるスーパーコンピュータRoadrunnerをLANLに設置した。NNSAはCaltechなど5カ所の新しいCOEを選定した。DOEのINCITEは55件のプログラムに計算資源を提供した。NSFのTrack 1としてBlue Watersが発表された。 |
アメリカ政府の動き
1) 緊縮財政
2007年にBush(子)大統領がACI (American Competitiveness Initiative)を提唱し、NSF、NIST、DOEの科学技術予算を今後7年掛けて倍増することが計画されたが、2008年度予算(2007年10月~2008年9月)は全く不十分であった。サブプライム住宅ローン危機などの影響が大きかったようである。(HPCwire 2008/2/22)(HPCwire 2008/12/19)
2) NNSA
NNSA(国家核安全保障局National Nuclear Security Administration)はDOEに属している組織で2000年に設立された。軍による核エネルギーの使用を通して国家の安全を発展させることを目的とする。米国内の核兵器の安全性・信頼性・機能性を、核実験を行うことなく、計画・製造・テストなどを通して維持・発展させる。2008年3月7日、NNSAは5カ所の新しいCOEを選定したと発表した。それは以下の5カ所で、Predictive Science Academic Alliance Program (PSAAP) agreementにより、それぞれ5年間に$17Mの資金を供与される。(LLNL News Release 2008/3/7)
a) California Institute of Technology: The Center for the Predictive Modeling and Simulation of High-Energy Density Dynamic Response of Materials
b) University of Michigan: The Center for Radiative Shock Hydrodynamics (CRASH) c) Purdue University: The Center for Prediction of Reliability, ntegrity and Survivability of Microsystems (PRISM)
d) Stanford University: The Center for Predictive Systems of Multi-Physics Flow Phenomena with Application to Integrated Hypersonic Systems
e) University of Texas at Austin: The Center for Predictive Engineering and Computational Sciences (PECOS)
3) DOE (INCITE)
DOEの主宰する公募制の資源提供プログラムINCITE (the Innovative and Novel Computational Impact on Theory and Experiment)は、2008年1月17日、2.65億processor-hourの計算資源を55件のプロジェクトに割り当てた。採択された課題は、大学や国立研究所関係が多いが、産業界も含まれている。資源提供はNERSCから1040万processor-hour (Berkeley Lab News 2008/1/18)、ORNLから1.45億processor-hour(ORNL News 2008/1/17)、ANLのBlue Gene/Pから1.11 億processor-hour(ANL News 2008/1/17)など。(SDSC News 2008/1/17)(HPCwire 2008/1/18)
![]() |
|
4) LANL(Roadrunner)
DOEは、2008年6月9日、世界で初めてPetaflopsを越えるスーパーコンピュータRoadrunnerをIBM社と共同開発したと発表した。これは、BladeCenter QS22/LS21のクラスタで、Dual coreのAMD Opteron 1.8 GHzを6000個以上と、3.2 GHzのPowerXCell 8iをOpteron当たり2個搭載している。接続はInfiniband。(HPCwire 2008/6/9) 2008年6月のTo500では、コア数122,400、Rmax=1.026 PFlops、Rpeak=1.376 PFlopsで堂々1位を獲得した。これはASC(旧ASCI)プロジェクトの一環で核兵器の維持管理のためのシミュレーションに用いる。開発費は約$133M(約140億円)とのことである。現在はPoughkeepsie (New York)のIBM工場にあるが、近くLANLに設置する予定である。 (New York Times 2008/6/9 写真は同紙から) (ITmedia 2008/6/10)(Reuers 2008/6/10)(朝日新聞 2008/6/10)(讀賣新聞 2008/6/10)(ITpro 2008/6/10)Roadrunnerは、コモディティのmany coreプロセッサでこのような高性能を実現したところは注目に値する。Linpackだけでなく、どんな応用で性能が出るか、またどのようにユーザを支援していくのか、楽しみである。
Cellを用いた主要なスーパーコンピュータは以下のとおり。性能の単位はPFlopsである。
|
設置場所 |
機種 |
コア数 |
Rmax |
Rpeak |
Top500初出と順位 |
|
LANL |
Roadrunner |
122400 →129600 →122400 |
1.026 →1.105 →1.042 |
1.376 →1.457 →1.376 |
2008/6 1位 →2008/11 1位 →2009/11 2位 |
|
LANL |
Cerrillos |
14400 |
0.127 |
0.162 |
2009/11 29位 |
|
IBM |
QS22/LS21 cluster |
7200 |
0.063 |
0.081 |
2008/11 43位 |
1999年2月15~19日にSanta BarbaraでPETAFLOPS IIが開催され筆者も出席したが、当時Petaflops実現には3つの可能性があると言われていた。
(a) 通常のプロセッサの微細化の延長線上、
(b) PIM(プロセッサとメモリを同一チップ上に)、
(c) HTMT(超伝導で200 GHzのクロックを実現)。
Cell B.E.は、まあ(b)PIMの一種と考えることができる。2008年11月のTop500で1 PFlopsを越えたJaguarは(a)であるが、1999年当時一番人気の高かったTom Sterlingの(c)は結局実現しなかった。
次世代のCell(2011年)は、1つのダイに、PPUが2個、SPUが32個だとの噂があったが、実際には登場することはなかった。
5) SNL(Red Storm)
SNL (Sandia National Laboratory)では、2002年ごろから地球シミュレータに対抗するためにASC (Advanced Simulation and Computing)の一環であるASCI Redの後継としてRed StormというMPPが開発されていた。2005年に動き出し、順次アップグレードされてきた。2008年2月6日、Cray社はSNLと合意が成立し、Red Stormの性能を今夏増強すると発表した。一部をdual-coreからquad-coreにアップグレードすることにより、ピーク性能を124 TFlopsから284 TFlopsに増強する。(Military-Aerospace Electronics 2008/2/11) 11月のTop500では10位であった。これは最後の増強である。Top500に見るRed Stormの進化は、2004年のところにも示したが、ここに再掲する。
|
日付 |
順位 |
プロセッサ |
コア数 |
Rmax (TFlops) |
Rpeak (TFlops) |
|
2005/6 |
10 |
2.0 GHz |
5000 |
15.25 |
20 |
|
2005/11 |
6 |
2.0 GHz |
10880 |
36.2 |
43.5 |
|
2006/6 |
9 |
2.0 GHz |
10880 |
36.2 |
43.5 |
|
2006/11 |
2 |
2.4 GHz dual |
26544 |
101.4 |
127.4 |
|
2007/6 |
3 |
2.4 GHz dual |
26544 |
101.4 |
127.4 |
|
2007/11 |
6 |
2.4 GHz dual |
26569 |
102.2 |
127.5 |
|
2008/6 |
13 |
2.4 GHz dual |
26569 |
102.2 |
127.5 |
|
2008/11 |
10 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2009/6 |
13 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2009/11 |
17 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2010/6 |
21 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2010/11 |
31 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2011/6 |
36 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2011/11 |
50 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
|
2012/6 |
82 |
2.4 dual / 2.2 quad |
38208 |
204.2 |
284.0 |
6) ORNL(XT5)
2008年2月1日、ORNL (Oak Ridge National Laboratory)の計算および計算科学担当副所長のThomas Zachariaは、NCAR (National Center for Atomspheric Research)のJames J. Hack上級研究員をORNLのNCCS (National Center for Computational Sciences)のセンター長に任命したと発表した。(ORNL News 2008/2/1) Jim Hackは1991年のJapan-US Workshop for Performance Evaluationに参加するなど我々とも縁の深い気象学の研究者である。1980年にColorado州立大学でPh.D.を授与されたのち、IBM Thomas J. Watson研究所の研究員を務め、1984年にNCARに移った。
ORNLはJaguarとして2005年にCray XT3を導入し、2007年にはXT4にアップグレードした。2008年5月には、さらに倍以上の性能向上を実現すると発表した(ORNL News 2008/5/15)2008年9月25日、ORNLはXT5の最初のキャビネットが到着したと発表した。Jaguarの進化については、2004年に示したが、再掲する。2008年11月にはRmaxでPFlopsに達し2位となった。(HPCwire 2008/11/19)
|
初出 |
順位 |
機種 |
コア数 |
Rmax (TFlops) |
Rpeak (TFlops) |
|
2005/6 |
11 |
Cray XT3, 2.4 GHz |
3748 |
14.170 |
17.990 |
|
2005/11 |
10 |
Jaguar-Cray XT3 2.4 |
5200 |
20.527 |
26.960 |
|
2006/11 |
10 |
Jaguar-Cray XT3 2.6 dual-core |
10424 |
43.480 |
54.2048 |
|
2007/6 |
2 |
Jaguar-Cray XT4/XT3 |
23016 |
101.700 |
119.350 |
|
2008/6 |
6 |
Jaguar-Cray XT4 2.1 quad-core |
30976 |
205.000 |
260.200 |
|
2008/11 |
2 |
Jaguar-Cray XT5 2.3 quad-core |
150152 |
1059.0 |
1381.4 |
|
2009/11 |
1 |
Jaguar-Cray XT5 2.6 6core |
224162 |
1759.0 |
2331.0 |
|
2012/6 |
6 |
Jaguar-Cray XK6 2.2 16core + NVIDIA 2090 |
298592 |
1941.0 |
2627.61 |
7) NSF(2008年度予算)
NSFは2008会計年度(2007年10月~2008年9月)に、$6.43Bの予算案を連邦議会に提出した。これは2007年度予算案より$408.79M (6.8%)増加している。(Fiscal Year 2008 Request) 会計年度に入って3か月以上経過した2008年1月8日に他の省庁の予算と一括して成立した。大統領の署名で成立する。NSFの実予算は$6.065Bであった。
8) NCSA(Blue Waters)
2007年のところに書いたように、NSFは2007年8月7日声明を出し、NSFが”Track 1”として募集していた世界最強のスーパーコンピュータの購入と運用の予算を承認したと発表した。Illinois大学Urbana-Champaign校(UIUC)は、“Blue Waters”と呼ばれるPetascaleのコンピュータを購入するために4.5年間に$208Mを授与する。システムは2011年に運用状態に入ることを期待している。日本の次世代スーパーコンピュータにちょうどぶつかるタイミングである。Blue WatersはThomas Dunning博士の指導の下NCSA (the National Center for Supercomputing Applications)が運用し、the Great Lakes Consortium for Petascale Computationに属する学界や産業界のパートナーが協力する。
ところが厳重な箝口令が敷かれているらしくほとんど情報が流れて来なかった。日本IBMの項で述べたように2008年9月11日に日本IBMの箱崎事業所(東京)でIBMのHPC Forumがあり、その中でUIUC NCSAのDeputy DirectorのRobert L. PenningtonがBlue Watersについて講演した。講演によると:
a) SustainedでPetaflops以上
b) 稼働予定2012年6月30日
c) Power 7 base — 200,000+ cores, 32 GB/SMP
d) 10 PB disk, 100 Gb/s external link
e) 電力 5 MW
f) 来月には建物の起工式
とのことであった。これでは何が何だかわからないので、筆者が”May I ask you how many cores are included in one SMP node?”と聞いたら、「大変重要な質問だが、答えることはできない」とはぐらかされてしまった。日米とも隠蔽モードになってきている。
9) TACC (Ranger)
NSFのTrack 2の一つであるTACC (the Texas Advanced Computer Center)のRangerは、2007年11月のTop500には間に合わなかったが、2008年1月からフル稼動すると2007年12月11日に発表があった。Sun Microsystemsが開発し、quad-core Opteron (コード名Barcelona)を4基搭載したノード3936台をInfiniband Magnum Switchで結合したマシンで、ピーク504 TFlops、メモリ125 TB、ディスク1.7 PBとのことである。実際には、2008年2月4日に正式稼動した。(HPCwire 2008/2/8)
Barcelonaには有名なTLB問題があったが、対策を施したLinuxを用い、性能への影響も少なかった。Rangerの当初計画ではBarcelonaが間に合いそうにないので最初の6ヶ月はdual-core Opteronを使う予定であったが、Sun Microsystems社はがんばって最初からquad-coreを実装した。予想されるアプリは、QCD、地震、気候、材料科学、天体物理学、計算流体力学、バイオインフォマティックス、科学、物理、地球科学などである。このコンピュータはTeraGrid中で最大の資源であるが、NSFの資金によって作られたので、“Open Science”であれば、アメリカ国内はもちろん、海外の研究者も(アメリカの組織との共同研究であれば)利用できる。2月22日に開所式典が行われた。(HPCwire 2008/2/29) (UT News 2008/3/6)
4月、The MILC (MIMD Lattice Computation) Collaborationのメンバーの一人であるRobert Sugar (UCSB)は早速QCDシミュレーションにより標準模型に関する疑問を解明すると意気込んでいた。
Rangerは、2008年6月のTop500において、コア数62976、Rmax=326 Tflops、Rpeak=503.81 TFlopsで5位を獲得した。
10) Tennessee (Kraken)
もう一つのNSF Track 2のマシンとして$65Mの予算を受けたTennessee大学を中心とするKrakenはどうなったであろうか。Cray社は2008年4月3日に、Tennessee大学NICS (the National Institute for Computational Sciences)にMPPを設置すると発表した。これはquad-core AMD Opteronを搭載したCray XT4である。設置場所はthe University of Tennessee-Oak Ridge National Laboratory Joint Institute for Computational Sciencesということになっているが、実際はORNLの広い計算機室にJaquarと並んで設置されている。2009年にはさらにアップグレードする予定。(HPCwire 2008/4/4)
Krakenは、現在公開されている2008年6月Top500において、Rmax=463.3 TFlopsで3位にランクされている。なお、このリストでは機種名はXT5で、相互接続網はXT4 Internal Interconnectとなっている。
11) NSF Track 2
TACC(Texas大学)とNICS(Tennessee大学)に次ぐ、Track 2の第3弾(LONIを入れれば第4弾)は、SDSC (San Diego Supercomputing Center)などが応募していたようであるが、5月頃、PSC (Pittsburgh Supercomputing Center)にSGIのUltraVioletが決まったとのことである。
2008年、PSCはSGI Altix 4700共有メモリNUMAシステムを2台導入した(insideHPC 2008/3/28)。1台はPopleと命名された。分子軌道法を確立し1998年ノーベル化学賞を受賞したCarnegie Mellon大学のJohn Pople教授にちなんで命名したものと思われる。Popleは、2基の1.16 GHzのItanium2 Montvale 9130M dual-core processorsを搭載したブレード192枚で構成されている。コア数は768で、ピーク性能は5.1 TFlopsである。ブレード上の4コアは8 GBのローカルメモリを共有する。プロセッサはNUMAlink相互接続網で結合され、どのプロセッサもすべてのメモリにアクセスできる。これはTeraGridの一環として、共同利用される。2011年まで運用する。
もう1台は、医学生物学専用のSalkである。ポリオワクチンを開発したPittsburgh大学のJonas Salkから取ったのであろう。Popleと同じくSGI Altix 4700共有メモリNUMAシステムで、36枚のブレードから構成される。コア数は144。導入に際し、NIH (National Institute of Health)およびNRBVSC (National Resource for Biomedical Supercmputing)から支援を受けた(SC Online 2009/3/3)。2015年1月まで運用する (PSC Timeline)。この直後、2009年4月にはSGIの破産・身売り騒ぎがあった。PSCはBigBenの後は、Top500にエントリーしていない。
12) DOD (HPCMP、光接続、HPCS)
国防省は、スーパーコンピュータ・インフラ構造を革新するために、1992年度予算からHPCMP (The High Performance Computing Modernization Program)を発足させた。2008年2月19日、Cray社はこの年のHPCMPの5件の調達のうち、4件を獲得したと発表した。いずれもCray XT5で、総額は$30Mである。設置場所や機種、仕様などは残っていない。(Inside HPC 2008/2/19)
HCwireによると、4月頃DARPA (the Defense Advanced Research Projects Agency)は次世代MPPのための光接続技術を開発するためSun Microsystemsに対し5年半に$44.4Mの契約を結んだ。競争相手は、Intel/HPとIBMとMITであった。Sunはシリコン光素子のベンダであるLuxteraおよびKoturaと共同する。アカデミアからはStanford大学やUCSDが協力する。(HPCwire 2008/3/28)
2002年から始まったDARPAのHPCS (High Productivity Computing Systems)プロジェクトは2006年11月21日、Phase IIIに参加する企業として、Cray社とIBM社の2社を選び、Phase IIに参加していたSun Microsystems社を落とした。Sun社はシリコン光結合や、チップ同士が配線を使わずに直接信号をやりとりする接触通信(Proximity Communication)技術などの革新的な技術をHeroと呼ばれるシステムに統合する予定であった。この技術をすくい上げる計画と見られる。
13) NASA
NASA(米国航空宇宙局)も負けてはいない。NASAとIntel社とSGI社は2008年5月7日、NASAのスーパーコンピュータの性能向上に向け、協力することで合意したと発表した。3者は、NASA AMES研究所のNAS (NASA Advanced Supercomputing) でのモデリングおよびシミュレーション能力向上のためのプロジェクトPleiadesで協力する。2009年までにピークで1 PFlops、2012年までに10 PFlopsのシステムを開発する予定である。実際にはPleiadesは2011年6月のTop500に登場し、Rmax=1.09 PFlops、Rpeak=1.32 PFlopsで7位にランクしている。
14) New York State Grid (NYSGrid)
ニューヨーク州には、Stony Brook大学とBNL (Brookhaven National Laboratory)が共同運用する103 TFlopsのBlue Gene(愛称New York Blue、2008年6月のTop500で18位)と、Rensselaer Polytechnic Institute が運用する90 TFlopsのBlue Gene(同23位)があり、ナノテク分野では共同研究をおこなって来た。2008年1月28日、これらの3組織は、エネルギー、バイオテクノロジー、医学など広い分野の研究のためにNYSGridを通して資源を提供すると発表した。(HPCwire 2008/1/28)
15) New Mexico Computing Applications Center (NMCAC)
昨年11月のTop500で3位に輝いたNMCAC (New Mexico Computing Application Center)のSGI Altix ICE 8200は、2008年1月28日ニュー・メキシコ州のBill Richardson知事は正式稼働を宣言した。知事はこう述べた。「ニュー・メキシコ州はハイテク経済を発展させようと真剣に考えている。この強力なコンピュータのニュースが広がるにつれて、いろんな会社や組織がこのプロジェクトに参加する意志を表明している。」(HPCwire 2008/1/28)
次回はヨーロッパの動き、中国の動き、アジアの動き、世界の学界など。上海スーパーコンピュータセンターで稼動するDawning 5000A(愛称 Magic Cube)は、Top500で11位にランクされました。
![]() |
![]() |
![]() |





