世界のスーパーコンピュータとそれを動かす人々


4月 22, 2024

新HPCの歩み(第183回)-2001年(h)-

小柳 義夫 (高度情報科学技術研究機構)

Top500では、HP社のSuperDome/HyperPlexが32台登場し、HP社が台数ではIBMに次ぐ2位となった。SC恒例のAwardsで牧野淳一郎氏は5回目のGordon Bell賞を受賞した。SC2001最終日は「抵抗勢力・全員集合」のパネルで、200人も集まり盛り上がった。

SC2001(続き)

11) Top500 (2001年11月、世界)
14日(水曜日)の17:30からBoF (Birds of a Feather) の一つとして、Top 500 の会があった。J. Dongarra, E. Strohmeier, H. Simonなどが主催。

いつもの通り、今年の発表があった。webには先週の8日から掲載されている。今年は表彰状を作り、上位3位はこの場で表彰した。あとは、来ているところに配った。筑波大学計算物理学研究センターにも79位の表彰状が来た。1996年には1位だったのに。

このほか、歴史のまとめ、アーキテクチャ別、国別、製造会社別、テクノロジ別などのデータが報告された。最後に、クラスタのTop500の発表があった。今回はとくに目立った報告はなかった。かつて、グラフに”Japan Inc.”(日本株式会社) などというentryが出てきたので、”No such company as Japan Inc.” などと野次ったこともあったが。

20位までは以下の通り。Compaq社は初めて10位以内に2台登場した。RmaxやRpeakの単位はTFlops。前回の順位に括弧があるのは、ハードウェア増強やチューニングで性能が向上したことを示す。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

1

(1)

LLNL

ASCI White, SP Power3 375 MHz

8192

7226.0

12288.0

2

Pittsburg S. C.

AlphaServer SC45

3024

4059.0

6048.0

3

(2)

NERSC

Seaborg, SP Power3 375 MHz 16 way

3328

3052.0

4992.0

4

3

SNL

ASCI Red – Pentium II 333MHz

9632

2379.0

3207.0

5

4

LLNL

ASCI Blue-Pacific SST

5808

2144.0

3856.5

6

LANL

AlphaServer SC45

1536

2096.0

3072.0

7

5

東京大学

SR8000/MPP

1152

1709.1

2074.0

8

6

LANL

ASCI Blue Mountain

6144

1608.0

3072.0

9

7

Naval Oceanographic Office

SP Power3 375 MHz

1336

1417.0

2004.0

10

ドイツ気象庁

SP Power3 375 MHz 16 way

1280

1293.0

1920.0

11

NCAR

SP Power3 375 MHz 16 way

1260

1272.0

1890.0

12

8

大阪大学

SX-5/128M8 3.2ns

128

1192.0

1280.0

13tie

9tie

NOAA R&D

SP Power3 375 MHz

1104

1179.0

1656.0

13tie

9tie

NOAA R&D

SP Power3 375 MHz

1104

1179.0

1656.0

15

11

アメリカ某政府機関

T3E 1200

1900

1127.0

2280.0

16

LLNL

SP Power3 375 MHz 16 way

1088

1100.0

1632.0

17

12

Leibniz Rechenzentrum(ドイツ)

SR8000-F1/112

112

1035.0

1344.0

18

13

SDSC

SP Power3 375 MHz 8 way

1152

929.0

1728.0

19

14

高エネルギー物理学研究所

SR8000-F1/100

100

917.0

1200.0

20

15

US Army HPC Research C.

T3E1200

1084

892.0

1300.8

 

前回(6月)と同じくIBMが台数で36%、性能で37%を占めた。多くの人を驚かせたのは、HP社が台数で30%を占め、2位となったことである。ただし大部分は140位以下のSuperDome/HyperPlexであり、性能のシェアは15%に留まっている(それでも2位)。148位にはPA-8600 549MHzを128個搭載したSuperDome (Rmax=196.7 GFlops)が同位で32台連続して並んでいる。続いてはSGI、Cray、Sun Microsystemsがそれぞれ41台、39台、31台の順となっている。HPのSuperDomeが大量登場したことにより、ボトムエンド(足切り)も前回の67.68 GFlopsから今回いきなり94.3 GFlopsに上がった。予想では80と見られていた。(HPCwire 2001/11/9)

13) Top500(2001年11月、日本)
日本国内の100位以内のシステムは以下の通り。性能の単位はGFlops。 今年は、日本の松岡(東工大)自作のPresto III (Athlon 1.2 GHz 331.70 GFlops)のデータが落ちていたり、「RWCP SCore IIIe」(Pentium III 933 MHz 618.30 GFlops)のデータが古いままだったりミスが目立ったので、先週のうちに抗議のメールが送られ、10日には改訂版が出た。結局、SCoreIIIは40位、PrestoIIIは86位にランキングされた。これで、IA32(x86)系のクラスタのランキングでは、我が国のクラスタが1位(Magi)、 2位(Score III)、4位(Presto III)になった。ちなみに、理研のP4クラスタも350位にランクインした。筑波大学のVPP5000(6月には申告せず)は28位、CP-PACSは79位であった。(現在のリストによる)

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

7

5

東京大学

SR8000/MPP

1152

1709.1

2074.0

12

8

大阪大学

SX-5/128M8 3.2 ns

128

1192.0

1656.0

19

14

高エネルギー物理学研究所

SR8000-F1/100

100

917.0

1200.0

22

17

東京大学

SR8000/128

128

873.0

1024.0

26

21

東北大学金属材料研究所

SR8000-G1/64

64

790.7

921.6

28

筑波大学

VPP5000/80

80

730.0

768.0

32

24

気象庁

SR8000-E1/80

80

691.3

768.0

39

産総研CBRC/TACC

Magi Cluster PIII 833 MHz

1040

654.0

970.0

40

(35)

新情報(筑波センタ-)

Score III/PIII 933 MHz

1024

618.3

955.4

42

31

東京大学物性研究所

SR8000-F1/60

60

577.0

720.0

43

32

九州大学

VPP5000/64

64

563.0

614.4

57

45

名古屋大学

VPP5000/56

56

492.0

537.0

58

46

京都大学

VPP800/63

63

482.0

504.0

61

48

産総研TACC

SR8000/64

64

449.0

512.0

75

61

日本原子力研究所

ORIGIN 3000 500 MHz

512

405.6

512.0

79

64

筑波大学計算物理学研究センター

CP-PACS/2048

2048

368.2

614.4

82

海洋科学技術機構

AlphaServer SC40 833 MHz

256

344.1

426.5

86

東工大国際センター

Presto III Athlon 1.2 GHz

256

331.7

614.4

89

71

理化学研究所

VPP700/160E

160

319.0

384.0

 

14) Scientific Visualization
15日(木曜日)のinvited talkは、Chris Johnson (U Utah)の、”Scientific Visualization”で始まった。たくさんの絵やビデオを見せたが、主として医学的な可視化の話が多かった。脳腫瘍の手術のためのVRとか、心電図の立体化とか、歯のCTとか。一部、カナダの低気圧の図もあった。問題は、volume renderingのcomplexityをどう減らすかというようなことであった。その他、

-Tensor visualization
-Diffusion in biological tissue
-Diffusion of MRI of brain
-Brush strokes (?)
-Barycentric mapps — volume rendering

の例を示した。私見と断っていたが、今後の課題として以下の点を挙げていた。

-Error and uncertainty visual representation
-Perceptual issues(人間がどう認識するか)
-Quantify effectiveness
-Time-dependent visualization
-Pipeline complexity
-Think about the science(サイエンスを忘れているとよく批判される)
-Interesting feature detection
-Leverage both hardware and software methods
-multi-field visualization

15) Digital Actors
この日もう一つの招待講演は、「ディジタルな役者は、人間の役者に置き換わるか」というAlvy Ray Smith の講演であった。かれは、SC96 (Pittsburgh)の招待講演(金曜日午前)において、Toy Storyの制作の裏話を、多くのビデオを見せながら面白く話したので、今回も同様かと思って期待したが、なんと、ビデオはおろかOHPも使わずに、ただ演壇で講演しただけであった。内容も、計算機が自意識を持てるかというような哲学的な話が多くて、結局答えがyesなのかnoなのかも分からなかった。

16) Technical papers
Technical Papersについては、今年は240件の投稿があり、60論文が採択された。日本からは以下の4件が発表された。

“8.61 Tflops/s Molecular Dynamics Simulation for NaCl with a Special-Purpose Computer: MDM” (Gordon Bell Finalist)

Tetsu Narumi et al. (RIKEN)

“A Jini-based Computing Portal System”

Toyotaro Suzumura et al. (Titech, AIST)

“Next-GenerationVisual Supercomputing using PC Clusters with Volume Graphics Hardware Devices”

Shigeru Muraki et al. (AIST, Mitsubishi Precision, UCD)

“Design and Implementation of FMPL, A Fast Message-passing Library of Remote Memory Operations”

Osamu Tatebe et al. (AIST, Hitachi Business, Hitachi)

 

下記は、日本とアメリカの共同研究であろうか。

“Scalable Atomicstic Simulation Algorithms for Materials Research”

Aiichiro Nakano et al. (Louisiana S U, Logicon, Naval Oceanographic Office, Yamaguchi U, Hiroshima U, NASA Ames)

 

Technical sessionsの傾向として、

-Grid関係が5セッション
-応用関係が5セッション
-architecture関係が2セッション

が目立つくらいか。1セッションは通常3件の発表を含む。

当時は気づかなかったが、GPU (NVIDIA GeForce 3)を使った行列計算の論文が発表された。“Fast Matrix Multiplies using Graphics Hardware”(E. Scott Larsen and David McAllister, University of North Carolina at Chapel Hill)である。Programmable shadersが装備されているとは言えCUDAが出る遙か前であり、数値計算をグラフィックスの概念に対応づけてプログラムしたようである。数値精度も大問題で、16 bitsしかなく、しかも最大値で飽和してしまう(画像用なので)などいろいろ苦労したようである。そのままでは実用にはならなかったが、現在のGPGPUの先駆といえよう。

17) Awards
恒例のAwardsの発表は、15日3時30分から行われた。主な表彰は以下の通り。(HPCwire 2001/11/23)

(1) Best technical paper of the conference
(受賞者不明)

(2) Best student technical paper
Computational Grid Applicationsのセッションの、Shava Smallen, Henri Casanova, Francine Berman (UCSD)の”Applying Scheduling and Tuning to On-line Parallel Tomography”に与えられた。賞金は500ドル。

(3) Best research poster
Sumir Chandra, Johan Steensland and Manish Parashar (Rutgers, The State University of New Jersey) “An Experimental Study of Adaptive Application Sensitive Partitioning Strategies for SAMR Applications” (SAMR = Structured Adaptive Mesh Refinement)

(4) Network challenge awards
これは、去年のSC2000から始まった賞で(要確認)、3件にそれぞれ5000ドルが授与された。スポンサーはQwest。

a) The Network Bandwidth Challenge
“Veni, Vidi, Conexi Maxime” (“I came, I saw, I connected to the max”の意味。シーザー(Iulius Caesar)の”Veni, Vidi, Vici”のパロディー) 。これは、NERSC (Berkeley), UIUC, Germanyのチーム。NERSCとUIUCで計算したブラックホールの衝突のシミュレーションを会場で可視化。3.3 Gb/s を達成。
b) Most Courageous and Creative Effort
“Dancing beyond Boundaries” Digital Worlds Institute (U Florida) ブラジルにいる演奏家の音楽に合わせて、デンバー、ミネアポリス、フロリダのダンサーが踊った。バンド幅としては30Mb/s程度であるが、国際的に分散したダンサー、演奏家、グラフィック・アーチストなどが協力して、高品質のビデオ・オーディオの作品を創造した。同期がポイントであろう。
c) The Best Network-Enabled Application
“Telesciend Video and Data Service” UCSD, SDSCのチーム。ネットワークを通して電子顕微鏡を操作。32 Mb/s。

(5) HPC Games
昨年同様に、各チームが自分の問題を持ち寄って、衆人環視のもとでそれを解き、スピードやエレガントさを競うHPC Games(HPC Challengeと呼ばれた年もある)は、計画されたが中止されたとのことである。

(6) Third annual IEEE Computer Society Seymour Cray Computer Engineering Award
これは、Seymour Crayを記念して授与される賞で、今年は3回目に当たる。賞金は10,000ドルでSGIがスポンサー(発足当時、Cray ResearchはSGIの一部門となっていた)。今年は、Stanford 大学学長のJohn L. Hennessy教授が受賞し、インタネット経由で受賞演説を行った。

(7) IEEE Computer Society Sidney Fernback Memorial Award
2001年は受賞者なし。

18) Gordon Bell Prize Winners
Digital Equipmentの副社長であったGordon Bell氏がポケットマネーを出して設立し、高性能計算による研究や発見を表彰する賞で、今年は15回目ということである(SCより古い)。今年は7件がfinalistsとしてnominateされていた。このうち5件はtechnical papersとして発表していたが、13日3時30分からGordon Bell Finalist Showcaseのセッションがあり、全員が発表した。3部門の受賞は以下のとおり。

Peak Performance
Toshiyuki Fukushige and Junichiro Makino; “Simulation of black holes in a galactic center,” 11.55 Tflop/s.

Honorable Mention: A. Canning (LBL) et al., “Multi-teraflops Spin Dynamics Studies of the Magnetic Structure of FeMn/Co Interfaces”

Price/Performance
Joon Hwang, Seung Jo Kim and Chang Lee, “Study of impact locating on aircraft structure,”  by low-cost cluster cost 24.6 cents/Mflop/s, or less than 25 cents per 1-million floating operations per second.

Special Achievements
Gabrielle Allen, Thomas Dramlitsch, Ian Foster, Nick Karonis, Matei Ripeanu, Edward Seidel and Brian Toonen, “Supporting efficient execution in the heterogeneous distributed computing environments with Cactus and Globus.”

Honorable Mention: R. D. Loft et al (NCAR), “Terascale Spectral Element Dynamical Core for Atmospheric General Circulation Models” がHonorable Mention。

 

a) Peak performance部門。3件がnominateされていたが、福重・牧野が、Grape 6により、銀河中心部のブラックホールを含むシミュレーションで11.55 TFlopsを達成し受賞。牧野氏は、これでPrice/Performanceを含めてなんと5回目の受賞。 Honorable MentionのA. Canning (LBL) et al.の論文では、2016原子を含むスーパーセルのスピンダイナミックスを、NERSCのIBM SPにおいて2.46 TFlopsを達成した。

b) Price Performance部門。1件がnominateされ、受賞した。Seung Jo Kimは、ソウルの秋葉原とも言うべき電気街(龍山(ヨンサン)であろう。清渓川(チョンゲチョン)かも知れない)で買った部品で組み立てたクラスタで、飛行機の構造計算をした。24.6 cents/MFlops。

c) Special Accomplishment部門。3件がnominateされ、G. Allen (Max Planck)らが受賞。NCSAのOrigin3台とSDSCの1台をつないで(total 1500 CPU) 63%から88%の効率。3-4日の準備と、5人以下の人手で達成。Fully automatic load balancingの成果。落選したのは、R. D. Loft et al (NCAR), “Terascale Spectral Element Dynamical Core for Atmospheric General Circulation Models” がHonorable Mention。これは、Spectral Element Methodという新しい方法で、370 GFlopsを達成 (NERSC IBM SP)。1日で130年分の計算ができる。MPI only(flat MPI)の方が、OpenMP + MPIより効率がよかった。

d) 以下の2件のfinalistsは受賞を逃した。

Tetsu Narumi et al. (RIKEN), “8.61 Tflops/s Molecular Dynamics Simulation for NaCl with a Special-Purpose Computer: MDM”

Greg L. Bryan (MIT), “Title: Achieving Extreme Resolution in Numerical Cosmology Using Adaptive Mesh Refinement: Resolving Primordial Star Formation”

 

残念ながら、理研のMDMによる8.61 TFlopsのNaCl溶解のシミュレーションは選に漏れた。 G. L. Bryan (MIT) et al.は、34レベルのmesh refinementを用いた宇宙創生のシミュレーション。1010 の空間スケールの差がある計算。

19) Virtual Product Development with CAE
木曜日にExhibitsが終了して、Receptionでお別れパーティーをやってしまうので、最終日(金曜日)は出席率が非常に悪く、プログラム構成上頭を悩ませるところである。今年は、MasterWorksとPanel を2本並列に正午まで開催した。

Virtual Product Development with CAEは最初の講演だけ聴いたが、Fluent 社のTom Tysinger氏が、FLUENTの紹介をしていた。流体の様々なシミュレーションのアニメーションは印象的だった。コンピュータ科学的な面では、domain decomposition, parallel partitioning, dynamical load balancingなどの成果を示していた。

20) 最終日パネル—「抵抗勢力・全員集合」
最終日のパネルとしては、”HPC Software: Have We Succeeded in Spite of it or Because of it?” と “General: Supercomputing’s Best and Worst Ideas” が設定され、いずれもかなり刺激的な内容で客を引こうとしていた。SS氏に言わせれば「抵抗勢力」の大合唱であった。MasterWorksが50人くらいしか出席していないのに、こちらは200人を越す盛況であった。

前半の、”HPC Software: Have We Succeeded in Spite of it or Because of it?” は、John M. Levesque (Cray, Inc.、元Applied Parallel Research)が司会し、(プログラムによると)M. Gittings, B. Gropp, D. Kuckなど年寄りのパネリストを集めていた。当然、Fortran 90の機能は使うな、CやC++など論外、などという昔風の議論が行われていた。私は途中から入ったので内容を説明できるほどは理解できなかった。

後半の、”General: Supercomputing’s Best and Worst Ideas”も、老人が言いたいことをしゃべる、というようなパネルであった。司会は、H. J. Siegel (Colorado S U)で、あらかじめ設定した質問に答える形でパネリストが発題を行った。いろいろ面白いことを言っているのだが、結局我田引水。

(1) Marc Snir (U Illinois, Urbana-Champaign。今年の秋まではIBMのWatson 研究所)
 (飛行機の時間があるので、すぐ失礼すると言いながら)スーパーコンピュータとは、性能から見て上位x%に入るコンピュータのことである(まあ常識的)。
 Best ideaとしては、COTS (Commodity-off-the-Shelf)-based scalable parallel systemsが登場したことである。重要な技術はinterconnectionであって、ハードもソフト(MPI, parallel I/O)もある。なぜ「よい」のか、それはPCと同じprice/performance ratioでスーパーコンピュータが作れるからである。
 Worst ideaは、クラスタがそれ以外の設計を存続不可能にしていることである。速いスーパーコンピュータ(ベクトルのことか?)は、アメリカと日本の政府のお情けで存在しているに過ぎない。それは問題か? もちろん問題だ、なぜならクラスタでは効率よく走らない応用があるからである(BlueGeneが頓挫した恨みがこもっているのか?)。
 そもそも、クラスタが安いなどというのは幻想である。故障率、プログラミングの費用などトータルなコストを考えれば、クラスタは決して安くない。ハードの不足を補うソフトを買うより、よいハードを買った方がベター。
 なぜクラスタが伸びているのか、初期価格と全体価格、見えるコストと見えないコスト、教育研究分野における曲がったインセンチブなどの問題がある。研究分野からの技術移転が問題。では、server farmは?これは使い物になる。(要は、PCクラスタなどを買わずに、IBMなどのサーバを買えということか)

(2) Burton Smith (Cray Inc.)
(プログラムにはなかったが登場)10個のbestとworstを述べた。

-10番目のbest ideaはMPIである。しかし、10番目のworst ideaは裸のMPIである。あんなものは使えない。
-9番目のbest ideaは、performance visualizationである。しかし、9番目のworst ideaは、そのpoor hardware instrumentationである。
-8番目のbest ideaは、RAIDである(Iが何を意味するかは問題だが)。しかし、8番目のworst ideaは、SAN (storage area network)がスーパーコンピュータのdisk I/O problemを解決するだろうという考えである。
-7番目のbest ideaは、Gridである。しかし、7番目のworst ideaは、Grid経由のmulticomputerまたはクラスタである。
-6番目のbest ideaは、standard mathematical library (ScaLAPACK, METIS, …)である。しかし、6番目のworst ideaは、LINPACKのR_maxによるベンチマークである。まあ、R_peakよりはましだが。
-5番目のbest ideaは、SPMD (Single Program Multiple Data)である。これはHarry Jordanが発明した(知らなかった)。しかし、5番目のworst ideaは、”New program language for parallel programming is necessary.”という考えである。
-4番目のbest ideaは、multicomputerである。クラスタだって、COW/NOWだって、MPPだってみんなこれだ。しかし、4番目のworst ideaは、”Multicomputer is the only supercomputer”という考えである。
-3番目のbest ideaは、compiler vectorization and parallelizationである。「Q8命令なんて知ってるか」と笑いを取っていた。(Cray Iの命令かと思ったら、CDCのCyber203用のベクトル命令を使うためのFortran Libraryの俗称だそうである。当時は、自動ベクトル化命令がなかったため、Q8命令と称して頭にQ8のついたlibraryを呼んでベクトル機能を使っていたとのこと。TW氏から伺った。確かに相当古い話である。)3番目のworst ideaは、これらがlegacy softwareにしか必要でないという考えである。
-2番目のbest ideaは、vector pipelined processorである。2番目のworst ideaは、”Vector is dead”という考えである。
-1番目のbest ideaは、(予想の通り)fine grain hardware multithreading である。HEPだって、MTAだって、HTMTだってみんなこれだ。1番目のworst ideaは、”Supercomputer architecture is dead.”という考え方だ。最後に一言、
What a maroon!! (私は)なんという浦島太郎!!
で一同爆笑。

(3) Charles Seitz (Myricom, Inc.)
 Best ideaはクラスタだ。なぜいいか、それば通常コストをかけても性能は飽和するが、PCはそれ以前で価格性能比が適切だからである。Worst ideaは、”Distributed computing algorithm and programming are not well understood.”デッドロックとか非決定性とか。
 なぜスーパーコンピューティングの領域でクラスタが有効か。タイのKasetsart大学の6.1 GFのクラスタの新聞ニュースを見せた(ちなみに、これをやっているPutchong Ulhayopasは、HPC-AsiaのSteering Committee memberでもあったが、2021年12月29日にバンコック市内で突然倒れ帰らぬ人となった)。
 一番悪いのは、マーケッティングのウソである。たとえば、InfiniBandのバンド幅が160 Gb/sなどと宣伝しているが、1ポートでみれば2.0 Gb/sに過ぎない。
(要は、InfiniBandなんかだめだ、Myrinetにしろ、ということ)

(4) Guy Robinson (Arctic Regin Supercomputing Center, U of Alaska)
 いきなり、”I’m the dark side.” 物理の学生のころ、実験を熱心にせずに、実験を計算機で検証することに興味をもった。そこで、今日...
 なぜスーパーコンピュータを使うのか、それは地球を対象に実験ができないからであり、そうしなければだれも私の言うことを信じないからである。
 10年に1つくらい、新しいFortranが出てくる、CMF, HPF, OpenMP など。最適化コンパイラは確かに速いが、同一の答えが出てこなければしょうがない。
 やりたいようにやるよりしかたがない。もしうまくいかなかったら、デバッガのようなツールを使うとよい。
 しかし、「もっと速くして欲しい」という要求が出てくるのはだいたい遅すぎる。ソフトができてからアルゴリズムを入れ替えることは難しい。現実ははるかに複雑。
 Gridの重要性は、データの共有にある。しかし、共有かつ安全 (share and secure) でなければならない。
 ”-ing” center と “-er” center とがある。(supercomputing center vs. supercomputer center)のことか?
 computational sciencesの教育が重要。
 “Brave New World.” (ハックスリーの反未来小説名「すばらしき新世界」)「なんという世の中になったものだ?」位の意味か?(結局何を言いたいのか不明)

(5) Cherri M. Pancake (Oregon State U)
 いきなり、「始めに、PRINTコマンドありき」。昔のデバッグやチューニングでは何千行のプリントをした。だから、「ツールがHPCの最大の進歩かもしれない。」「でも、second opinionを求めなくては」と言いながら後ろを向いてめがねと付け鼻をつけて、低い声で「Tools may be the Worst of HPC」なぜならreal world applicationを扱えないから。HPC toolsは真にparallelか?
 HPC toolsを開発するときのモチベーションは何か。マーケティング的には、差別化を図り、魅力的に見えるように。研究的には、新しい制御メカニズムを導入し、cool picture!
 真のベストは、HPCユーザが、適切なツールもないのに、努力していることである。
 真の最悪は、HPCユーザが、標準化の議論に発言権がなく、可用性へのビジネス的な配慮がなく、調達の決定過程にインパクトを持っていず、ベンダにもセンターにも声が届いていないことである。
 そして、「PRINTに戻った」

(6) James C. Browne (U of Texas, Austin)
 1966年から今まで、と題して。(何で1966、彼のHPCキャリアか、FORTRANか?) ベストは、

-新しいハードウェアアーキテクチャに今でも限りない情熱が向けられていること(ほんまかいな?)
-HPCアーキテクチャを主流に持っていくという必要性の認識
-アプリケーションの開発者の、忍耐と堅持
-アプリケーションのべースが広がっていること

MPIのプログラムを見せて、こんなものを教えてはいけない。 さて、最悪は、

-コンピュータ科学者、応用数学者、計算科学者、アプリケーション開発者が、歴史的に相互に軽蔑しあっていること(これは名言)。
-HPCコード開発の実状
-MPIプログラミング・モデル

このあと、特に「軽蔑disdain」をめぐってひとしきり議論。

次回はダイナミックなアメリカ企業の動きである。IBM社は32CPUまで共有メモリのp690 (コード名Regatta) を発表した。BlueGeneの構想はどんどん変わる。ついにMTA-2が出荷される。Intel社はついにItaniumを出荷する。

 

left-arrow   new50history-bottom   right-arrow