世界のスーパーコンピュータとそれを動かす人々


7月 1, 2019

HPCの歩み50年(第203回)-2011年(o)-

小柳 義夫 (高度情報科学技術研究機構)

HPC Challengeでは、Class 1のすべてにおいて約束通り京コンピュータが第1位を受賞した。Gordon Bell賞では、理研、筑波大、東大、富士通連合軍による“First-principles calculations of electron states of a silicon nanowire with 100,000 atoms on the K computer” がthe Sustained Performance Prizeを受賞した。

SC2011(続き)

8) 基調講演(Jen-Hsun Huang)
15日(火)の基調講演はNVIDIA創立者・社長・CEOのJen-Hsun Huang(黄仁勳)氏の”Exascale — An Innovator’s Dilemma” であった。昨年の基調講演のChristensenの講演を意識していたようである。Christensenの言うdisruptive technologyはまさにexascaleに当てはまる、と指摘した。

スーパーコンピュータは今や不可欠のツールである。計算速度の歴史を見てみよう。驚くほどの発展である。Cray YMPは1988年に初めてGFlopsを実現した[筆者注:ベンチマークで世界初のGFlopsは、NEC SX-2がLivermore LoopのNo.7で1042.3 MFlopsを出した(1987)のが最初であろう]。T3E/1200は1998年に0.8 TFlopsを、XT5 (Jaguar)は2009年に1.8 PlopsFを実現した。

4年毎に半導体のサイズは半分になり、同じパワーで8倍の性能が出る。ワット当たりの性能は年毎に1.68倍である。これまでDennard氏の提唱したスケーリングに従ってきたが、これには終わりが見えている。今後パワー当たりの性能向上は年に1.19程度にまで鈍るであろう。20MWに制限すると、2019年には70 PFlops 、2022年にも100 PFlopsしか出来ず、1 EFlopsは2035年になってしまう。

CPUは高速化しているが複雑化している。それはsingle thread performanceに最適化しているからである。演算の50倍のエネルギーを演算のスケジュールに、20倍のエネルギーをデータ移動に使っている。従って、演算には数%のエネルギーしか使っていない。

超効率的なプロセッサが必要である。それは多くの単一なプロセッサの集まりであり、局所性を重視し、single thread performanceは悪化する。

“Innovator’s Dilemma”によれば、顧客や投資家に注目されないと企業は成り立たないし、小さな市場では大きな会社の成長を支えられない、と書かれている。NVIDIAのGPUはゲーム用のグラフィックスというロー・エンドから始めた。これこそ破壊的イノベーションだ。一つは2~300ドルだが、年に2億売れている。もうけは少ないが数が多い。GPUは表現の幅を広げた。すべてのゲームは違うし、より高度なものを求めるようになる。20年間最大のグラフィックの会社であった。

IEEE 754の32ビット表現を採用した。これによりGPU computingは新しい市場となった。長崎大学の浜田氏の(扇風機で冷やしている)コンピュータはまさに破壊的技術である。かれはGordon Bell賞を取った。かれはIBMの顧客には絶対ならない。

今やCUDAが動くGPUは3.5億個以上出ている。中国科学院はH1N1インフルエンザウィルスを解析するのに2000個のGPUを使った。今回NVIDIAはOpenACCを発表した。これは並列プログラミングのためのオープンな規格で、directiveを書くだけでGPU上で並列化できる。魚の一生[?]の計算が2日で65倍になったとか、星と銀河が5日で5.6倍になったとかいくつかの例を出していた。

Exascaleへの路には20 MWの壁がある。2019年までに20 MWでExascaleができれば、2035年には100 EFlopsが実現する。

クリステンセン流に言えば、GPUはすでにクロスオーバーを越え、新しい市場のイノベーションに到達したのだ。巨大な市場がGPUをサポートしている。モバイルは10億台、ワークステーションは500万台である。2019年には5 WでTFlopsが可能になる。

ここで怪獣の映画を上映した。音響もすごかった。

TFlopsはASCI Redで実現したが、2019年には100W で出来るようになる。リアルタイムの動画のためにはTFlopsが必要である。

ここでAssasin’s Creedという中世物の映画を上映。

別の人が出て来て、どう絵を作るかを実演した。

“One Disruption Enables Another” ということが重要である。”From Supercomputer to Superphones.”

なお、電子ニュースの「SC11 – NVIDIAが基調講演で語ったスパコンの概念と未来展望」や「20メガワットエクサスケールは破壊的イノベーションで実現する」をご覧ください。

9) HPC Challenge Awards
15日12:15からのBirds of a Feather sessionの一つとして、The 2011 HPC Challenge Awardsが発表された。これはClass 1とClass 2の二つのクラスがある。Class 1では、多くの問題のベスト性能を競う。カテゴリとしては、

a) HPL (High Performance Linpack)
b) Global-Random-Access
c) EP-STREAM-Triad per system
d) Global-FFT

Class 2では上記4つを含むHPC Challenge Benchmarkのプログラムの4つ以上を最もエレガントに実装したチームを表彰する。採点基準は「技術点」(性能)と「芸術点」(エレガンス、明晰さ、サイズ)がそれぞれ50%である。

Class 1の上位受賞は次の通り。

Global HPL

Performance (TFLOP/s)

System

Institutional Facility

1st place

2,118

K computer

RIKEN

1st runner up

1,533

Cray XT5

ORNL

2nd runner up

736

Cray XT5

UTK

Global RandomAccess

Performance (GUPS)

System

Institutional Facility

1st place

121

K computer

RIKEN

1st runner up

117

IBM BG/P

LLNL

2nd runner up

103

IBM BG/P

ANL

EP STREAM (Triad) per system

Performance (TB/s)

System

Institutional Facility

1st place

812

K computer

RIKEN

1st runner up

398

Cray XT5

ORNL

2nd runner up

267

IBM BG/P

LLNL

Global FFT

Performance (TFLOP/s)

System

Institutional Facility

1st place

34.7

K computer

RIKEN

1st runner up

11.9

NEC SX-9

JAMSTEC

2nd runner up

10.7

Cray XT5

ORNL

 

今回、Class 1のすべてにおいて約束通り京コンピュータが第1位を受賞した。なおG-FFTでは地球シミュレータが2位を獲得している。

Class 2の結果は以下の通り。

Award

Recipient

Affiliation

Language

Most Elegant Language $1000

Sung-Eun Choi

 

Cray

Chapel

Most Elegant Language Honoable Mention

Laksono Adhianto

 

Rice University

Coarray Fortran 2.0

Best Performance $1000

Laxmikant V. Kale

UIUC

Charm++

Best Performance Honorable Mention

Laksono Adhianto

 

Rice niversity

Coarray Fortran 2.0

 

10) Gordon Bell賞
今年は5件の論文がGordon Bello賞のfinalistsに選ばれた。15日と16日に講演が行われた。

“First-principles calculations of electron states of a silicon nanowire with 100,000 atoms on the K computer” Yukihiro Hasegawa, Junichi Iwata, Miwako Tsuji, Daisuke Takahashi, Atsushi Oshiyama, Kazuo Minami, Taisuke Boku, Fumiyoshi Shoji, Atsuya Uno, Motoyoshi Kurokawa, Hikaru Inoue, Ikuo Miyoshi, Mitsuo Yokokawa (理研、筑波大、東大、富士通)

“Atomistic Nanoelectronic Device Engineering with sustained Performance up o 1.44 Pflops” Mathiew Luisier, Timothy B, Boykin, Gerhard Klimeck, Wolfgang Fichtner (Purdue University, University of Alabama in Huntsville, ETH Zurich)

“Peta-scale Phase-Field Simulation for Dendritic Solidification on the TSUBAME 2.0 Supercomputer” Takashi Shimokawabe, Takayuki Aoki, Tomohiro Takaki, Akinori Yamanaka, Akira Nukada, Toshio Endo, Naoya Maruyama, Satoshi Matsuoka(東工大、京都工芸繊維大学)

“Petaflop Biofluidics Simulations On A Two Million-Core System” Massimo Bernaschi, Mauro Bisson, Toshio Endo, Massimiliano Fatica, Satoshi Matsuoka, Simone Melchionna, Sauro Succi(Consiglio Nazionale delle Ricerche, Harvard University, 東工大、NVIDIA)

“A New Computational Pardigm in Multiscale Simulations: Application to Brain Blood Flow” Leopold Grinberg, Vitali Morozov, Dimitry Fedosov, Joseph Insley, Michael Papka, Kalyan Kumaran, George Karnidakis (Brouwn University, ANL, Forschungszentrum Juelich)

 

審査の結果、理研他の「京」による”First-principle calculations ..”がthe Sustained Performance Prizeを受賞。東工大他の「Tsubame 2.0」による”Peta-scale Phase-Field Simulation ..”がthe Scalability/Time to Solution Prizeを受賞した。また異例ではあるが、レベルの高さにより、他の3件すべてに、honorable mentions賞を授与した。そのうちの1つも東工大が関係している。

11) Blue Waters Panel
15日(火)午後15:30~17:00には、実質上BlueWatersに関するパネルがあった。正式なタイトルは、Holistic Co-Design Approach using Application Performance Modeling and Simulation for System Design, Evaluation, and Optimizationである。座長のIrene Qualters (NSF、元Cray社) はNSFにおけるこのプロジェクトの責任者である。パネリストは、

William Kramer – National Center for Supercomputing Applications
Torsten Hoefler – National Center for Supercomputing Applications
Adolfy Hoisie – Pacific Northwest National Laboratory
Laxmikant Kale – University of Illinois at Urbana-Champaign
Allan Snavely – University of California, San Diego
Marc Snir – University of Illinois at Urbana-Champaign

の6人である。

UIUCのBlueWatersプロジェクトは、8月6日にIBM社が撤退し、その後Cray社が担当することになったが、全体論的(“holistic”にはいい訳語がない)なアプローチを強調していた。要はLinpackなどに拘泥しないということであろうか。このパネルのアブストラクトは、

 「将来のペタスケール++システムには、システムとアプリ両方の加速実現の主要な方法として”co-design”を用いることになる。Blue Watersは、アプリとシステムのコデザインの概念を集中的に用いた最初で最大のHPCシステムプロジェクトである。Blue Watersのコデザインの努力の主要な部分は、アプリの再構成とシステムデザインへの全体論的なモデリングとシミュレーションのアプローチである。このパネルはBlue Watersの科学者と開発者とがとった、統合的(“synergetic”にもいい訳がない)なしかも独立なモデリング、シミュレーション、性能予測を提示する。この多面的な努力は、Blue Watersシステムとともにそれを使うアプリの両方の、分析を助けるとともに最適化するであろう。このパネルは、モデリングとシミュレーションの統合的な努力を提示する。このような努力は、システムデザインとアプリの移植にインパクトを与える。ここでの教訓は、ペタスケールを越えるエクサスケールへの努力にも適用できるであろう。」というたいそうなものであった。

 まずQualtersが、「このパネルはBlue Waters Projectで議論してきたことを紹介したい。局所性だけを考えればいいわけではない。」というような導入をした。

 Snavelyは、”Performance Modeling for Blue Waters”と題して、「性能モデルはアプリに対して予言力を持たなくてはならない。新しいシステムのアクセラレータに適用して性能が予測できなくてはならない。そのためにはシステム性能のレーダーチャートを用いる。項目としては、L1, L2, L3 caches、メインメモリ、on-node latency, on-node bandwidth、off-node latency、off-node bandwidthなど。これを気象や地震などのアプリに適用する。このように、性能モデルの基本的な要素によってシステムとアプリをつなぐ。これが私の所属するPMaC lab.の予測フレームワークである。」と述べた。

 Hoisieは、「アプリの振る舞いをカプセル化し、性能と○○を分離する。」と述べ、性能モデルのプロセスフローチャートを示した。「IBMとの共同研究で、PERCSにおけるコデザインは、仮想的なシステムで性能予測を行い、コデザインのツールとしてモデルを用いる。エクサスケールのためのコデザインとしては、モデリングが重要で、消費電力、性能、信頼性が鍵である。

 SnirはANLのMathematics and Computer Science Divisionのdirectorを兼務しているようである。かれは、”From Art to Engineering” と題して、「これまで性能予測というと魔法のお告げのように見られていた。つまり、適用可能性が狭く(とくに動的に変化する場合)、プログラマにもシステム・デザイナーにも立ち入り禁止(off limits)であった。戦略的な目標は消費エネルギーである。2%だけが浮動小数演算に使われていて、50%はデータの移動に、50%はアーキテクチャ関係の利便性(キャッシュなど)に使われている。」などと述べた。

 Kaleは、「新しいマシン上ではチューニングに時間がかかる。どうしたら性能を予測し、ボトルネックを発見できるか。それには感度解析が重要である。詳しくは私の論文を見てほしいが、Charm++によりBigSimというエミュレータを作った。2万コアのマシンで30万コアのプログラムを予測できる。Petascale++のシステムに対して有効である。」と述べた。

 Hoeflerは、”Performance Modeling for the Masses”と題して発題した。「性能モデリングとは何か。簡単な方法論がある。解析的なモデルで測定値を分析することである。例えば、T=a+b*N^3 とか。では、いつ、どこで、そのようなモデルを使うのか。存在するコードに対するわれわれのプロセスには6つのステップ(4つは解析的、2つは経験的)[何のことか不明]がある。Blue Watersのアプリは比較的規則的なものが多い。性能モデルは、アプリの設計者とシステムの設計者の双方の指針になる。」

あまり理解できなかったが、筆者の疑問は、これでアプリとシステムのコデザインになっているのであろうか、ということである。つまり、システムの特徴からアプリを再構成するという方向ばかりで、アプリからシステムの設計を再構成するという方向の議論はあまりなかった。システムはgivenという印象である。Blue Watersの場合、すでにシステムは決まっているのでやむを得ないかもしれないが、これでは双方向のコデザインになっていない、と思われる。「京」や「富岳」で双方向のコデザインができたのは、プロセッサやネットワークを自分たちで設計したからであろう。

この意味で、これまでの日本の先端的HPCマシンはコデザインのコンセプトを守ってきたと思う。典型的なのはGrapeやcp-pacsで、前者は重力多体計算、後者はQCD計算というアプリとアーキテクチャを完全に双方向で設計したと言える。NWTや地球シミュレータでも、流体や気象というアプリからアーキテクチャを考えている。京コンピュータでは、最初の案は「汎用スーパーコンピュータで何でもできる」というような触れ込みであったが、それでは設計ができないと、岩崎先生や筆者などが強硬に主張して、典型的なアプリを(最初約20本、最終的には6本)選び、そのカーネルコードをアーキテクチャやコンパイラとすりあわせたので、ある程度コデザインになったと言える。

重要なことは、このように特定のアプリと摺り合わせてデザインしたコンピュータは、全部とは言わないまでの、他のいくつかのアプリにもかなりの性能を出せるということである。Grapeは完全な専用だったのでちょっと別であるが。

設計は限られた資源をどこに使うかという選択の問題である。最初から「汎用」スーパーコンピュータを目指すと、「あれも欲しい、これも欲しい」ということになって選択ができなくなる。現在、ポスト京「富岳」の開発においてもコデザインが基本原則として明示されている。

コデザインには、アプリとアーキとをつなぐインタフェースが重要である。cp-pacsではmultというQCDのカーネルを使った(大本は1980年代初めに筆者が書いたサブルーチンである)。カーネルコードが分離できるならばそれは一つの方法である。もう少し一般的には、いくつかの軸で考えることが考えられる。例えば、x軸としては、Flops当たりのメイン・メモリバンド幅(B/Flopと呼ばれる)をとり、y軸としてFlops当たりのメインメモリ量(B/Flopsと呼ばれる)を取り、xy平面で可能なアーキテクチャやアプリを考えることである。

12) Exascale Panel

 
 
 
   

18日(金)の8:30-10:00に“The View: HPC Edition”というパネルがあった。9月8日にOregon州立大のCherri Pancake教授からメールがあり、これに参加してAsian perspectiveを述べよとの招待であった。なんでも、これは通常のパネルとは違い、ABCテレビの“The View”という番組の真似で、女性たちがco-hosts(共同司会者)となり、いろんな専門家の問題提起を聞きながら、ソファに座って語り合うのだそうである。Wikipedia「ザ・ビュー」によると、1997年から放送している長寿番組である。「わたし、そんなの見たことありません」というと、Cherri女史が「実はわたしも見たことがない」とかずいぶんいい加減である。共同司会者は、 

-Cherri M. Pancake (Moderator) – Oregon State University
-Debra Goldfarb – Microsoft Corporation
-Alice Koniges – Lawrence Berkeley National Laboratory
-Candy Culhane – National Security Agency

で、Cherriがモデレータ、他の3人がパネリストとしてプログラムに出ていた。呼ばれた専門家と称する人々は、

-Jean-Yves Berthou (European Exascale Software Initiative)
-Dave Turek (IBM)
-Ryan Waite (Microsoft)
-Matt Fetes (venture capitalist)

と筆者だったらしい。プレゼンは3分程度、長くとも5分以内ということで、3枚のスライドを準備した。実は、6枚ほど用意したのだが、Cherriが減らせ減らせといい、最後は彼女が自分で編集してしまった。2枚目の絵は、横軸が相対メモリ容量、縦軸が相対メモリバンド幅である。この2つの軸で、応用とアーキテクチャを対応付けるという考え方は、ポスト「京」のWGなどで議論されていたものである。当時筆者は、エクサスケールの汎用マシンは困難で、それぞれ特徴のあるマシンを二三台作るべきだと考えていた。

「エクサスケールの予算を獲得するために一番重要なことは何か?」という質問が出たので、2009年の事業仕分けが頭をよぎり、「納税者の理解を得ることです」と答えた。すっかり上がってしまい、他の人が何をしゃべったか、全体の流れがどうだったのか、全然記憶がない。英語はむつかしい。

13) Top500(世界)
11月15日午後5時30分からのBoFでTop500の発表があった。2011年11月のTop500(第38回)の上位20位までを示す。性能の単位はTFlops。前回の順位にカッコがついているのは、システム増強またはチューニングにより性能向上があったことを示す。

順位

前回

設置場所

機種名

cores

Rmax

Rpeak

1

(1)

理研AICS

「京」コンピュータ

705024

10510

11280.4

2

2

国家超級計算天津中心

Tianhe-1A – NUDT TH MPP, X5670 2.93Ghz 6C, NVIDIA GPU, FT-1000 8C

186368

2566.0

4701.0

3

3

ORNL

Jaguar – Cray XT5-HE 6-core 2.6 GHz

224162

1759.0

2331.0

4

4

国家超級計算深圳中心

Nebulae – Dawning TC3600 Blade System, Xeon X5650 6C 2.66GHz, Infiniband QDR, NVIDIA 2050

120640

1271.0

2984.3

5

5

東京工業大学

TSUBAME 2.0 – HP ProLiant SL390s G7 Xeon 6C X5670, NVIDIA GPU, Linux/Windows

73278

1192.0

2287.6

6

6

SNL

Cielo – Cray XE6 8core 2.4 GHz

142272

1110.0

1365.8

7

7

NASA/Ames

Pleiades – SGI Altix ICE

111104

1088.0

1315.3

8

8

NERSC

Hopper – Cray XE6 12-core 2.1 GHz

153408

1054.0

1288.6

9

9

CEA(仏)

Tera-100 – Bull bullx super-node S6010/S6030

138368

1050.0

1254.5

10

10

LANL

Roadrunner-QS22/LS21, Cell 8i 3.2 GHz

122400

1042.0

1375.78

11

11

NICS, Tennessee

Kraken Cray XT5-HE – 6-core 2.6 GHz

11200

919.1

1173.0

12

Stuttgart大学

HERMIT – Cray XE6, Opteron 16C 2.3 GHz

113472

831.4

1043.94

13

12

FZJ

JUGENE – Blue Gene/P

294912

825.5

1002.7

14

国家超級計算中心済南

Sunway Blue Light 16C 0.975 GHz

137200

795.9

1070.2

15

LLNL

Zin – Xeon E5 8C 2.60 GHz

46208

773.3

961.1

16

国家超級計算中心湖南

Tianhe-1A Hunan Solution, Xeon X5670 6C 2.93 GHz NVIDIA 2050

53248

771.1

1342.8

17

LLNL

Sequoia – Blue Gene/Q

65536

677.1

838.9

18

13

Moscow State U.

Lomonosof – T-Platform

33072

674.1

1373.1

19

(24)

Edinburgh大学

HECToR – 565.7Cray XE6, Opteron 16C 2.3 GHz

716.0

660.243

829.03

20

NOAA/ORNL

Gaea C2 – Cray XE6 Opteron 16C 2.3 GHz

77824

565.7

715.981

 

Top10では、「京」コンピュータが10 PFlops越えを実現したが、エントリーに変更はなかった。これは、Top500の歴史の中で初めてのことであった。ちなみに、注意深い人は、ラック数が864で、1ラックの計算ノードは96であるから82,944で数が合わないと気づいたかもしれない。実は各ラックには6個のI/Oノードがあり、同じCPUで作られ、相互接続網で接続されている。そこで、I/Oノードも計算にかり出せば864×(96+6)=88,128 となる。これはParagonの昔からしばしば使われている技法である。

新規マシンの最高位は、ドイツStuttgart大学のHERMIT (Cray XE6)の831.4 TflopsでTop500の12位獲得であった。次のTop500で1位となるSequoiaは、部分稼働で17位となっている。

全体の傾向としては、前回250近くあったreplacement rate(新規参入の台数)は195に減少した。ベンダは、台数ベースで、1位がIBM(223台)、2位がHP(140台)であるが、Top50に限ると、1位がCray(17台)、2位がIBM(9台)である。国別では、台数ベースで、1位がアメリカ(53%)、2位が中国(13%)である。

14) Top500(日本)
日本設置のマシンは以下の通り。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

1

(1)

理研AICS

「京」コンピュータ

705024

10510

11280.4

5

5

東京工業大学

TSUBAME 2.0 – HP ProLiant SL390s G7 Xeon 6C X5670, Nvidia GPU, Linux/Windows

73278

1192.0

2287.63

28

量子科学技術研究開発機構

Helios – Bullx B510, Xeon 8C 2.7 GHz

20480

360.9

442.4

52

38

日本原子力研究開発機構

BX900 Xeon X5570 2.93 GHz, Infiniband QDR

17072

191.4

200.08

72

48

東大物性研

SGI Altix ICE 8400EX Xeon X5570 4-core 2.93 GHz, Infiniband

15360

161.8

180.019

94

68

JAMSTEC

Earth Simulator 2 – SX-9/E/1280M160

1280

122.4

131.072

95

北海道大学

SR16000 M1/176, POWER7 8C 3.83 GHz

5504

121.6

168.9

101

73

JAXA

FX-1

12032

110.6

121.282

118

84

東京大学

T2K Open Supercomputer (Todai Combined Cluster)

15104

101.7

139.0

125

89

理研

PRIMERGY RX200S5

9048

97.94

106.042

185

118

筑波大学

T2K Open Supercomputer – Appro Xtreme-X3 Server

10369

77.28

95.385

205

(126)

国立環境研

GOSAT Research Computation Facility – Asterism ID318, Intel Xeon E5530, NVIDIA C2050

5760

75.9

177.1

214

127

某通信会社

HD DL 160 Cluster G6, Xeon X5650

13620

74.7423

144.917

221

131

京大基礎物理学研究所

Hitachi SR16000 XM1/108 Power7 3.3 GHz, Infiniband

3456

73.35

91.2384

278

162

某金融機関

xSeries x3650M3, IBM

11640

65.6

97.8

280tie

サービスプロバイダ

xSeries x3650M3, IBM

11628

65.524

123.722

280tie

サービスプロバイダ

xSeries x3650M3, IBM

11628

65.524

123.722

280tie

サービスプロバイダ

xSeries x3650M3, IBM

11628

65.524

123.722

292

168

サービスプロバイダ

xSeries x3650M2, IBM

14432

64.596

130.869

310

某通信会社

HP DL160 Xeon 6C 2.40 GHz

12640

62.8

121.3

328

(430)

長崎大学

DEGIMA – Intel i5, ATI Radeon

9900

61.4

138.9

340tie

ITサービスプロバイダ

HPE Cluster Platform 3000 BL460c

10752

59.6

114.4

340tie

ITサービスプロバイダ

HPE Cluster Platform 3000 BL460c

10752

59.6

114.4

367

197

核融合科学研

Plasma Simulator – SR16000

4096

56.6

77.0

378

204

サービスプロバイダ

xSeries x3650M2 Cluster, Xeon QC E55xx 2.26 Ghz, GigE

11640

55.9447

105.552

408tie

225tie

サービスプロバイダ

xSeries x3650M3, IBM

9732

54.8402

98.4878

408tie

225tie

サービスプロバイダ

xSeries x3650M3, IBM

9732

54.8402

98.4878

408tie

225tie

サービスプロバイダ

xSeries x3650M3, IBM

9732

54.8402

98.4878

414

230

東大医科研

SHIROKANE – SunBlade x6250

5760

54.21

69.12

493

291

気象研究所

Hitachi SR16000 L2/121

3871

51.21

72.7936

 

28位のマシンは青森県六ケ所村にあるITER(国際熱核融合実験炉)のための計算機で、愛称は「ろくちゃん」。

15) Green500
第9回目となるGreen500も発表された。リストはGreen500のページ上には残っていないが、Wikipediaから10位までを記す。

順位

Top500

MFlops/W

設置場所

マシン

1tie

64tie

2026.48

IBM Rochester

Blue Gene/Q

1tie

64tie

2026.48

IBM T.J. Watson

Bleu Gene/Q

3

29

1996.09

IBM Rochester

Blue Gene/Q

4

17

1988.56

LLNL

Blue Gene/Q

5

284

1689.86

IBM T.J.Watson

Blue Gene/Q Prototype 1

6

238

1378.32

長崎大学

DEGIMA Cluster (Inttel i5, ATI Radeon)

7

114

1266.26

Barcelona S.C.

Bull, Bullx B505 (Xeon 6C, NVIDIA 2090)

8

102

1010.11

GENCI

Bull, Bullx B505 (Xeon E5640)

9

21

 963.7

中国科学院

Mole-8.5 Cluster (Xeon 4C, NVIDIA 2050)

10

5

 958.35

東京工業大学

HP Proliant SL390s G7 (Xeon 6C, NVIDIA)

 

残念ならが「京」コンピュータ(824.5644 MFlops/W)は10位外になってしまった。なお、IBM Rochesterはミネソタ州にある施設であり、ニューヨーク州のRochesterではない。

16) Graph 500
今回のGraph 500は50件の応募があった。上位10件は以下の通り。

No.

前回

Machine

Installation Site

Number of nodes

Number of cores

Problem scale

GTEPS

1

NNSA/SC (IBM – Blue Gene/Q(Prototype))

NNSA and IBM Research, T.J. Watson

4096

65536

32

253.403

2

2

Hopper (Cray – XE6)

LBL

1800

43200

37

112.743

3

1

Lomonosov (MPP)

Moscow State University

4096

32768

37

103.079

4

TSUBAME (NEC/HP)

GSIC Center, Tokyo Institute of Technology

1366

16392

36

99.858

5

5

Jugene (IBM – Blue Gene/P)

Forschungszentrum Jülich

64000

 

37

92.3418

6

4

Intrepid (IBM – Blue Gene/P)

ANL

32768

131072

35

78.3832

7

12

Endeavor (Westmere – X5670)

Parallel Computing Lab / Intel Labs

320

3840

32

56.9083

8

7?

(IBM – Blue Gene/Q)

IBM Research, T.J. Watson

512

 

30

55.8346

9

3

Franklin (Cray – XT4)

LBL

4000

16000

36

19.3274

10

6

(SGI – Altix ICE8400EX)

SGI

256

1024

31

13.9586

 

次回はアメリカ企業の動きの前半。Cray社は初めてGPUを装備したスーパーコンピュータXK6を発表した。

left-arrow   50history-bottom   right-arrow