世界のスーパーコンピュータとそれを動かす人々


2月 19, 2024

新HPCの歩み(第174回)-2000年(g)-

小柳 義夫 (高度情報科学技術研究機構)

SC2000の基調講演では、Steve Wallachが2009年までにPetaflopsを実現する方法について論じた。またBlueGeneと地球シミュレータに関する講演が多くの聴衆を集めた。GridやMetacomputingの話題が大きく取り上げられた。Gordon Bell PrizeのPeak Performance賞はなんと日本の2グループが1位タイで受賞した。

SC2000

 
   

1) はじめに
12周年目にあたるSC2000: High Performance Networking and Computing Conference国際会議(通称 Supercomputing 2000)は、テキサス州 DallasのDallas Convention Center で11月4日から10日まで開催された(初めの2日間はeducational program やtutorial)。観光場所はあまりないがケネディーを撃ったとされるオズワルドのいた元教科書倉庫のビルの”The Sixth Floor Museum” を見に行った。「真犯人はいまだ謎」とのことであった。また今回ちょうど火曜日がElection Dayなので、Bushが勝ったらお膝元で戦勝パレードぐらいあるかと期待していたが、それどころではなかった。今年の参加者は例年より若干少ないのではないかという感じであったが、主催者発表によるとだいたい例年並とのことで、世界の32カ国から集まっている。  福井義成氏や若杉康仁氏の報告は、『ハイエンドコンピューティング技術に関する調査研究II』の141ページ以下にある。電総研研究速報の報告などもあったが現在は見当たらない。

2) 組織
会議の組織委員長はLouis Turcotte (Rose-Hulman Institute of Technology)、副委員長はBetsy Schermerhorn (Fermi National Accelerator Laboratory)、委員長代理はCharlie Slocomb (Los Alamos National Laboratory)である。プログラム委員会は、分野をApps/Numerics/Visualization、Arch/Networks/Dist. Computing、Performance Optimization、Prog. Models and Toolsの4分野に別けそれぞれ副委員長を置いている。日本からは三浦謙一(富士通)と村岡洋一(早稲田)が入っている。

3) 企業展示
この会議の目玉の一つは大規模な企業展示である。本年も広大な会場に多くの企業の展示がにぎやかに設営された。クラスタを含むハードウェアベンダを始めとして、ソフトウェア、大容量記憶装置、ネットワーク、E-commerce、出版、学会など約90の企業等が出展した。Applied Metacomputing(後のAvaki社), Knowledgeport Alliance, Entropia, ParabonのようないわゆるMegacomputing(小さい不確かな資源を集めて大きな計算をすること)の企業の参入は今年の新傾向であろう。

正直言って、今年はあまり目新しいものはなかった。IBMはPower4やBlue Geneを宣伝していた。Compaqは、ASCI Q (30+ Tera OPS)を受注したばかりで意気が上がっていた。これは、375台のGS320 (32 CPU)を結合したものである。原子力研究所(関西)からもかなり大きなシステムを受注していて、”Strongest computer in Japan” だとか電光表示で自慢していた。strongかどうかは主観の問題だが。Sun Microsystemsのブースのシアターでは、会社のセールストークの他に、8日(水)の昼には理研の成見氏がMDGrape-WINE systemによるNaClのシミュレーション(Gordon Bell賞の候補になった仕事)を発表し、実演していた。

SGIはOrigin 3200/3400/3800などを出展していた。モジュール性を重視したNUMAflexというコンセプトを打ち出し、来年にはIA-64 ItaniumやPCI-Xなどにも繋げていくらしい。なんでも、Ohio Supercomputer CenterにはIA-64を使った機械のprototype systemが設置されたとのことである。

Teraに吸収されてCray Inc.となった旧Cray Divisionは、SV1の増強版SV1exを発表した。8M gatesのASICがtape outしたとのことである。450MHzでプロセッサ当たり1.8 GFlops、ノード当たり7.2 GFlopsと50%増強された (HPCwire 2000/11/7) 。SV1は既に100台以上販売しているそうだ。SV2の噂もいろいろ流れているがどうなったのか?

日本の3社も、例年通り大きなブースで出展していた。NECはSX-5を、富士通はVPP5000を、日立はSR8000を軸に出展した。ニュースによると、HitachiはSR8000のデバッガとして、EtnusのTotalViewを選択したとのことで、日本の代理店Softekの武田喜一郎社長のコメントが出ていた。

会議と平行して Exhibitor’s Forum が開催され、展示を出した各社が30分ずつ講演していたが今年は聞く時間がなかった。

4) 研究展示 Research Exhibits
大学・研究所などの展示は、年毎に盛んになっている。今年は、合計69の研究展示があった。そのうちなんと13件は日本からの出展であった。電総研、原子力研究所計算科学推進センター、JAMSTEC海洋科学研究センター、科学技術振興事業団、航技研、大阪大学サイバーメディアセンター、RWCP、RIST、埼玉大学、理研、Adventure(東大)、GRAPE(東大)、早稲田大学。このうち、Adventure、GRAPE、早稲田大学の3つは学術振興会の未来開拓研究推進事業関連である。中でも、JAMSTECは地球シミュレータの1/100模型とCPUボードとを展示していた。

5) 基調講演
今回の基調講演はConvexの共同創立者の一人 Steven J. Wallach (CenterPoint Venture Partners / Chiaro Networks)の “Petaflops in the Year 2009″であった。かれは2009年までにPetaflops計算機を製作する方法は何かと問い、高密度化したシリコンチップを光接続する、というスキームを提示した。

6) The Earth Simulator
11月7日(火)のMasterworksは、Computing Platformsと題して、”Blue Gene” by Monty Denneau (IBM) と、”Status of the Earth Simulator Project in Japan” by Kenji Tani (Japan Atomic Energy Research Institute) とがあった。いずれも今後のHigh Endのコンピュータであり、多くの聴衆を集めていた。谷氏は地球シミュレータのハード、ソフト、応用について全体的な解説をし、CPUボードと建物全体の模型が展示会場に出展されていることを述べた。「総予算は?」という質問が出て、谷氏が一瞬たじろぐ場面もあった。

7) Technical Program
オリジナルな論文は 179編の投稿があり、審査の上63件が発表された。今回は、村岡洋一氏(早稲田大学)と三浦謙一氏(富士通)がプログラム委員会に参加している。両氏ともIlliac IVのころイリノイ大学で活躍された方々なのは偶然か。日本からはGordon Bell finalistsの2件の他、”PM2: A High Performance Communication Middleware for Heterogeneous Network Environments” by Toshiyuki Takahashi, Shinji Sumimoto, Atsushi Hori, Hiroshi Harada, Yutaka Ishikawa (RWCP) がCluster Infrastructureのセッションに採択された。来年は松岡聡氏(東工大)がプログラム委員会に加わる。

Tutorialは24件(Full Day:9件,Half Day 15件)、Panelは7件であった。SC96の頃はHPFやPVMのTutorialがあったが、最近はMPI、OpenMP、Java、XMLなどの内容が目立つ。VisualizationやClusterはここでも人気があり複数のTutorialが開催されている。今年の新しい試みとしては、Mesh Generationに関するTutorialが開催されていた。

昨年のSC99ではあったPoster発表が今回なかったようであるが、Proceedings CD-ROMには「最新の結果を発表する」”research gems”について言及されており、これがPoster発表に相当するようである(要確認)。ただし、採択された論文のリストはない。

8) 大統領選挙
11月7日火曜日は大統領選挙の投票日であった(11月第1月曜の翌日)。候補者は共和党のジョージ・W・ブッシュと民主党のアル・ゴア(と緑の党のラルフ・ネーダーはじめ5人の泡沫候補)であった。組織委員会は、出席者に期日前投票をしておくように呼び掛けていた。火曜日は開会式のある日で、夜はいくつかの会社のパーティーが催される。夕方何人かのアメリカ人の友人に話を聞くと、「ゴアが勝ちそうだ」と嬉しそうな顔をしていた。会議参加者のアメリカ人には民主党支持が多いこともあるが、ゴアは情報分野への支援に積極的だからであろう。

夜遅くなってからSGIのパーティー会場に行った。大広間では飲んだり食べたりだべったりしていたが、脇の少し小さな部屋2つにそれぞれ別のテレビニュースを投影して、皆見入っていた。票数伯仲で“Too close to call”となり、フロリダ州の勝者が決まらず、もやもやしたままホテルに帰った。

その後はご存知の通り、票を数えなおすとか再チェックするとかいうことになり、アメリカの投票システムの弱点が明らかになった。日本人の筆者にとって不思議だったことは、「人間が判定するとバイアスがかかるから、機械に任せるのが一番公正だ」と誰も信じていることだった。日本なんか全部人間が判定するのに(枚数は機械が数える)。2020年には、トランプ対バイデンの開票速報を見ながら、2000年当時のことを思い出した。

結局、前に書いた通り、筆者が12月中旬、SSQIIのComputer Science Workshopでニューヨークに滞在しているとき、ブッシュの勝ちに決定した。当時のジェブ・ブッシュ知事(ブッシュ候補の弟)が、フロリダ州の票はもうこれ以上は数え直さないと断を下したからだそうである。

9) Award session
さて、SC2000にはさまざまな賞がある。9日木曜日午後のPlenary sessionで発表され表彰された。

  1. Best Technical Paper Award ($1000)は、”Is Data Distribution Necessary in OpenMP?” by Dimitrios S. Nikolopoulos et al. (Univ. of Patras, Greece, Univ. of Illinois at UC, Tech. Univ. of Catalonia, Spain)に与えられた。この論文は、Origin2000でOpenMPの性能を分析し、page replacement schemesとuser-level page migration engineにより、プログラムレベルでのdata distribution directiveのようなものは不要であると論じた。
  2. Best Technical Student Paper Award ($500)は、学生が主著者(登壇者ということであろう)である論文のうちから選ばれるもので、”A Comparison of Three Programming Models for Adaptive Applications on the Origin 2000″ by Hongzhang Shan, et al. (Princeton Univ., NERSC, NASA Ames)が受賞した。これは、MPI modelと、SHMEM modelと、cache-coherent shared address space (CC-SAS) modelとにより、2種のadaptive applicationsを実装し、プログラミングの労力と性能を比較したもので、CC-SASの方がプログラムが書きやすく性能もよいと結論している。ただし、portabilityに限界があり、多数のプロセッサにデータが分散している場合にspatial localityが少ないという問題点も指摘した
  3. “Best Research Gem of the Conference” Award($250)はResearch Gem (一種のポスター展示)から選ぶもので、”Automatic TCP Window Tuning Implemented in an FTP Application” by Jian Liu et al. (NCSA)が獲得した。

10) HPC Games
HPC Gamesは、わが国の今年のJSPPのPSC (Parallel Software Contest)の自由部門みたいなもので(だいぶ違うが)、街頭価格1万ドル以内のPC(ソフトは1000ドル以内)を組み合わせたシステムで、いくつかのベンチマークを行い、それぞれのベンチマークでの順位をつけ、その合計(ただし各参加者の最高と最低は除く)で競うものである。(HPCwire 2000/9/15) 受賞者は以下の通り。

Grand Prix ($1000)

Air Force Research Laboratory, “The Red Team” — James Hanna et al.

Most Innovative Hardware Prize ($500)

University of Kentucky, “The Aggregate” — Hank Dietz et al.

Most Innovative Software Award ($500)

Grand Prixと同じチーム

Most Leading Edge Technology Award ($500)

Black Lab Linux — Kai Staats et al.

Honorable Mention

MITRE — David Koester et al.

 

賞金の出資者は何とGordon Bell博士である。

HPC GamesはSC99でも開催されたが、SC97とSC98ではHPC Challenge Awardという名前で似た趣旨のコンテストが開催された。

11) Fun Awards
このほか、Fun Awardsとしてオチャラケの賞が発表された(賞状授与はなし)。曰く、First Entry to Apply (要するに最初に投稿された論文。採択論文の中での最初であろう)、Latest Entry、最も芸術的なクラスタ(よく分からないが、Cray-1の形に並べたKentuckyだかのクラスタが取ったらしい)、Ben Hur Award (何のこっちゃ?)、100%何とかAwardなどなど。

12) Network Challenge
SC2000 Network Challenge for Bandwidth-Intensive Applicationsが行われた。このChallengeはIan Foster (ANL)が提案したもので、SC2000会期中の火曜日水曜日(11月7日8日)に、会場のSCinetを使って行われた。11のチームに各1時間が与えられ、SCinetチームが測定をおこなった。3つのカテゴリーごとに勝者が定められ、Qwest社から現金の賞金が与えられた。(HPCwire 2000/11/17)

  1. Fastest and Fattest Awardは、”Visaput — Using High-Speed WANs and Network Data Caches to Enable Remote and Distributed Visualization” — W. Bethel et al. (LBNL)に与えられのた。このチームは5秒間にわたって1.48 Gb/sの通信速度を実現した。
  2. Hottest Infrastructure Awardは、”A Data Management Infrastructure for Climate Modeling Research” — A. Chervenak et al. (USC, ISIN, LLNL, LBNL)に与えられた。このチームは、大規模気候モデルのセキュアはデータ転送と複製に対するインフラストラクチャを実証し、1.03 Gb/sの通信速度を実現した。
  3. Most Captivating and Best Tuned Awardは”、QoS Enabled Audio Teleportation” C. Chafe et al. (Stanford大、Internet2、Deutsche Telekom、Stanford Networking.)に与えられた。このチームは、離れた場所の間でInternetを通して合奏を実現したようである。タイムラグの調整に苦労したと思われる。

13) Gordon Bell Prize
注目のGordon Bell Prizesが発表された。これは、HPCおよび並列処理分野の先駆者の一人Gordon Bell氏(現在Microsoft)の拠出金$5000により毎年出され、応用プログラムでの性能を競うものである。過去、日本のグループも何回か受賞している。今年は、論文が通常のtechnical paperとして採択されることを条件としていた。Gordon Bell nomineeのセッションは8日水曜の午後と9日木曜の午前と二つ設けられ6論文が発表されていたが、結局以下のとおり受賞者が発表された。

Peak Performance賞は、何かの応用で最高性能を証明したものに与えられるが、今年はなんと日本の2グループがタイで受賞した。(理研発表)

Peak Performance
Competitors for this year’s prize for best performance tied, each achieving 1.34 teraflops.
First place: Tetsu Narumi, Ryutaro Susukita, Takahiro Koishi, Kenji Yasuoka, Hideaki Furusawa, Atsushi Kawai and Thoshikazu Ebisuzaki; “Molecular Dynamic Simulation for NaCl for a Special Purpose Computer: MDM,” 1.34 Tflops.

First place: Junichiro Makino, Toshiyuki Fukushige and Masaki Koga; “Simulation of Black Holes in a Galactic Center on GRAPE-6,” 1.349 Tflops.

Price/Performance
First place: Douglas Aberdeen, Jonathan Baxter and Robert Edwards; “92 cents/Mflops Ultra-Large Scale Neural Network Training on a PIII Cluster.

Honorable Mention: Thomas Hauser, Timothy I. Mattox, Raymond P. LeBeau, Henry G. Dietz and P. George Huang, University of Kentucky; “High-Cost CFD on a Low-Cost Cluster.

Special
Alan Calder, B.C. Curtis, Jonathan Dursi, Bruce Fryxell, G. Henry, P. MacNeice, Kevin Olson, Paul Ricker, Robert Rosner, Frank Timmes, Henry Tufo, James Truran and Michael Zingale; “High-Peformance Reactive Fluid Flow Simulations Using Adaptive Mesh Refinement on Thousands of Processors.

 

ピーク性能のカテゴリーは、両者とも杉本大一郎先生の流れを汲む2派なので、Flops値(いずれも換算値)を「談合」したのではないかとみんなで追求したが、どうも偶然らしい。

Price/Performance賞は、何かの応用で価格性能比(megaflops per dollar)を実現したものに与えられる。Honorable MentionのKentucky大学Dietz教授のグループは、700 MHzのAthlon 64基を100 Mb/sのイーサーネットで繋いだKLAT2 クラスタ(Kentucky Linux Athlon Testbed 2)により、GFlops当たり$650という価格性能比を実現したものである。(HPCwire 2000/5/26)

Special 部門は、絶対性能も価格性能比もトップにはなれないが、非常に革新的な技術をもちいた事例に与えられる。今回は、unusual accomplishmentだとして上記のグループが受賞した。

6件の Finalistsの中で、この1件だけは受賞を逃した。

Robert K. Brunner et al., “Scalable Molecular Dyanmics for Large Biomeolecular System”

 

14) Seymour Cray Computer Engineering Award / Sidney Fernbach Award
IEEE Computer Societyの名前で出されるSeymour Cray Computer Engineering Award($10000、スポンサーはSGI)とSidney Fernbach Awardは、8日水曜日午前のMasterworksの時間に発表され、受賞者の講演があった。Award Sessionでは表彰式があった。Fernbach賞は、Dr. Stephen W. AttawayというSandiaの人の”Large-scale Parallel Transient Dynamics Simulation of an Explosive Blast Interacting with a Concrete Building”の仕事に贈られた。これは、テロリストによるコンクリートの建物の爆破のような過渡現象を、超並列計算機によりシミュレーションする技術で、億に近い要素数の計算である。

Seymour Cray賞は、David E. Cullerのお父さんのDr. Glen J. Culler (UC Berkeley) の会話型科学計算の発展への業績に贈られ、かれは車椅子で受け取った。彼は、1961年に会話型グラフィックシステムを開発し、その後、AP90B、 AP-120BなどのVLIW型の(ミニコン付加型の)アレイプロセッサを開発した(ということはFloating Point Systems 社に関係したのか?)。5万ドル以下で3 MFlopsを実現し、”the poor man’s Cray”と呼ばれた。これは、RISCプロセッサが同じ価格性能比を実現する15年前のことであった。その後、ディジタル音声認識のためのVLSI アレイプロセッサを開発した。80年代には、Culler Scientific Systemは命令レベル並列、マルチプロセッサ、アレイ型アドレス機構などをもちいたミニスーパーコンを製造した。Culler PSC (Personal SuperComputer)は、Cray 1-Sの1/4の性能をワークステーション並の価格とサイズで実現した。Culler-7というマシンは、ネットワーク型マルチプロセッサUnixコンピュートサーバの先駆けであった。 1991年にStar Technologiesにおいて、最初のSparc-based vector processor (STAR 910/VP)を開発したが、病に倒れ引退を余儀なくされた。David Cullerのお父様がこんな方とは存じませんでした。

15) 記念講演
このplenary sessionの締めとして、”On the Scale and Performance of Cooperative Web Proxy Caching” by Goeff Voekler (UC San Diego)という講演があった。講演者紹介はSid Karrin。

Voekler氏は、webのaccessを高速化するにはどうしたらいいかを論じた。Proxyはいいが、ミスが多いとlatencyが増える。また、Proxyは利用者数とともに効率が増加するが、限界がある。最近、cooperative web proxy cachingという技術が進んでいるが、その有効性はいろいろな要素に依存する。組織の内部でshareすることは有効だが、異なる組織をまたがるdocument sharingは必ずしも有効でない。このことを、Univ. of WashingtonとMicrosoft社のweb browsingのtrace分析をもとに議論した。なにか当たり前のことのようだが。

16) パネル”Petaflops around the Corner”
授賞式に引き続き、標記のパネルがあった。ペタフロップスはどうなったのか興味津々で参加した。

まずModeratorのNeil Pundit (SNL)がパネリストを紹介して始まった。

  1. Tom Sterling
    Tom Sterling (CalTech/JPL)はHTMTの推進者である。かれはPetaflops projectの歴史を回顧し、Top500の外挿から2010までにPetaflopsが可能となると力説した。Petaflopsへの要求として、bulk capabilitiesやefficiencyとともにusabilityを強調した。応用分野は山ほどある(fusion, propulsion, moleculte, protein, drug, genom, aerodynamics, anatomy, ….)。SIAのCMOS Roadmapについても言及した。最先端の技術を融合し、動的でadaptivemな資源管理を行うことが重要。最先端の技術として、MTA, optical, RSFQ, Hologram memoryなどを上げ、HTMTは可能だと結論した。(でも、HTMTプロジェクトはその頃fundingをうち切られている)
  2. Pete Bechman
    Pete Bechman (Turbolabs, 元LANL)はまるで緑の党のように、Petaflopsなど作るなと力説した。Peteらしい。極端な技術を使ってPetaflopsを作ることは乏しい資源の利用法として最悪であり、恐ろしい計画だ。そもそも、小さなプロジェクトならリスクも小さいし、費用も小さい。しかし、巨大なプロジェクトは、もし技術の完全性を要求するならば、必ず失敗する。宇宙ステーション、SSC、NIFなど例はいろいろある。Petaflops computerなど作るのをやめて、そのかわり小さなよい技術を実現しよう。間違ったものを作ってはならない。Petaflopsのハードは間違っているし、ソフトも間違っている。CPUの利用率も低い。予算の60%はソフトに注ぐべきなのだ。「正しい龍を殺せ」。結論、

(1) Petaflopsを作るな。
(2) 複雑で大きなプロジェクトはだめだ。
(3) 小さく有用な技術に投資せよ(linuxのこと?)
(4) ハードウェアに焦点を絞るな
(5) Flops are stupid.
(6) simulation environmentを作れ。
(7) Do you want to change the world?

  1. Bill Camp
    Bill Camp (SNL)は”Petaflops and beyond”と題してPetaflopsの技術的問題を論じた。Moore’s lawによれば2009/2010にはPetaflopsができることになるだろう。たぶん、50 Gflops×20000 processorsといったところだろう。T3Eに似たアーキテクチャとなろう。すなわち、メモリバンド幅は1 Byte/Flopsで、3次元メッシュ、大域アドレス空間、cache coherency。RAS はもっとcritical になる。LINPACKはもはや実行不可能となろう。なぜなら、計算量はメモリの3/2乗に比例するからである。なぜPetaflopsが必要か。Bio, medical, climate, materialo, economy, gene sequencing, structural, proteomics, cell signaling, cellular metabolism, organ function, ageing, neuro, … 全球を30m×300m×300mで覆うと5T cellsになる。High End Computing に終わりがあるなどと言う人は、過去に捕らわれている。
  2. Marc Snir
    Marc Snir (IBM)は “Petaflops around the IBM corner”と題して、IBMのBlue Geneの話をした。2004年になんらexoticな技術を使わずに、Petaflopsはできる。10年後なら知らないが。現在のASCI supercomputerを外挿してはいけない。だいたいMD Grapeのような専用計算機ならすぐPetaを実現できる。また、汎用計算機でも、メモリやI/Oが少なくて良いなら、英雄的な技術などなしに、単純に安くできる。10段ものmemory hierarchyなど不要で、メモリにプロセッサを埋め込めばよい。CPU 利用率など議論するのはナンセンス。どうせゲートの数%に過ぎない。ソフトウェアは技術的な問題ではない。2つのプロジェクトが考えられる。Blue lightは、一種のdense clusterで、1 chip 3 GF、カードに4 CPU載せ、backplaneに64 cardsを差す。ラックは4 back planes。1 Pflopsは300ラックでできる。電力は3 MW、設置面積はフットボール場2つ分でよい。Blue geneは、1 Pflopsで333 GBのマシンだ。Is it meaningful? Yes, many important applications.
  3. Rick Stevens
    Rick Stevens (ANL)は応用について発題した。インターネット全体は、ルーターが100万から1億、devicesが10億から1000億。これをシミュレーションするにはPetaflopsが要る。Biological CAD, biodesign, Million Person Virtual Theme Park (entertainment), Virtual Biosphere 2, Computational Astrobiology, Digital Archeologyなど。結論、現在の科学計算のモメンタムを保持するにはPetaflopsが必要。Petaflopsは、新しいemerging applicationsを可能にするであろう。
  4. Paul Messina
    Paul Messina (DOE HQ)は、研究開発プロジェクトとしての意味を語った。Petaflopsはかつて夢であったが、いまやASCI final systemは100 Tera Ops with 30 TBを考えている。COTSを使えばよい。ASCI Red はCOTS CPUのad hoc clusterで性能を実現し、信頼性も大丈夫だった。見通しとして、専用計算機ならGrape 6やBlue Geneのようにすでに可能である。汎用機としては、COTSで行ける。2009年のASCIだと思えばよい。Grid-basedという可能性もある、これば分散異機種結合だ。Petaflopsはアーキテクチャ研究を再覚醒する。いま始めよう。応用の人も巻き込んで。そして、新しい「何か」を、少なくとも検討の対象にしよう(COTS以外も検討しようということか?)。
  5. 議論
    これらの発題のあと、いろいろ質問が出た。「いったいPetaflopsは何台必要か?」答え「来世紀の終わりにはterascale machinesはmillions」。「ゲームのためにPetaflopsは要るのか?」Stevens「ゲームは不要」などなど。2019年6月には、1 PFlopsないとTop500にも入れなくなるなどと誰が予想したか。

17) パネルGrid
最終日(10日金曜日)は昼までであり、企業・研究展示も前日に終わっているので出席率が悪い。例年、原著講演はなくパネルや招待講演で構成している。今回も2本並列に4つのパネルが開かれた。

前半では、”Computational Grid: A Solution Looking for a Problem” というパネルを見た。Gridのパネルなのだが、司会者のJenniffer Schopf (Northwestern Univ.)とIan Foster以外はGridの専門家ではなく、1世代前の人であり、話はだいぶ食い違っていた。

Ian Foster (ANL)はGridの解説をしたあと、よくある誤解として、「Gridは新しいInternetだ」「Gridはfree cycles(ただ乗り自転車)だ」を上げた。

Marc Snir (IBM)は、Gridを「自然に」分散したものを扱う技術と定義し、遠隔地の計算資源の協力、データの共有、加速器・望遠鏡などのunique resourcesの利用などを上げた。問題点として、理由もなく分散してもしょうがない。例えば、地域的に離れたスーパーコンピュータに分散する理由はない。ネット上の余った資源を活用するseti@homeなどは面白い技術だが、質が保証されないし、みんなが同時にやったらうまくいかない。全ネットワーク上の資源の総和はBlue Gene300台程度だから意外に小さい。

Geoffrey Fox (Florida State Univ.)は、Gridはコンピュータ以外では昔からある技術だ(交通、電力など)。Gridの応用として、e-commerce Grid, education Grid, Distributed Simulation Gridなどが考えられる。service管理が問題である。security, fault tolerance, object lookup and registration, object persistence, data base support, event and transaction services など。

Cherri Pancake (Oregon State Univ.)がなぜこのパネルに呼ばれたのかは知らないが、彼女は(次のパネルの)Megacomputingの話ばかりしていた。パソコンのユーザはそれほど理性的かつ協力的であろうか。Grid上の資源はephemeral(短命)なので使いものになるか。Grid economyにおけるユーザは、資源消費者と資源提供者に分かれるが、その両者には対立がある。

18) パネルMegacomputers
最後のパネルは”Megacomputers”に出た。司会者はLarry Smarr (UC San Diego)。Smarrはネット上のcommodity processorsの並列処理により大規模計算を行う可能性が出てきたこと、事実seti@homeやentropia.com のような例があることを述べた。

  1. Ian Foster
    Ian Fosterがまた出てきて、Grid computing とmegacomputingの関係を述べた。Grid computingは統一的な制御も、全知全能者も、相互信頼もない分散計算である。megacomputerはGridの一例であり、簡単な関係のもとで極めて多数の資源を集め、しかも信頼関係が極めて希薄な点に特徴がある。SETI (Search of ExtraTerrestical Inteligence)やEntropiaはその一例である。将来的には、より集権化された共有の形態になるであろう。技術的な課題としては、1)プロトコルやサービスをどうするか、2)新しい応用の概念、3)より多数のより動的なconfigurationのもとでのアルゴリズムなどがある。
  2. Andrew Chien
    Andrew Chien (Entropia Inc.)はEntropiaの歴史を語った。これは、Mersenne素数を見つけるために1997年に始まった。1998には35番目がみつかり、1999年には36番目が見つかった。80以上の国の、10万台以上のマシンが参加した。この経験から、NSFのPACI programに200 M hr CPU timeを提供することになった。
  3. Jim Gannon
    ParabonのJim Gannonは、Parabonが1999年6月に創立されたがすでに50人を越える従業員を抱えていることを自慢した。セキュリティはSSLで保証し、Javaによりスケーラビリティをまし、悪意もしくは誤りからの防御を高めた。スピードも速くなった。応用分野としては、comparative genomics, financial modelling, compute against cancer (癌の遺伝子の解読)などいろいろある。
  4. Andrew Grimshow
    Andrew Grimshow (Univ. of Virginia)は、”Mega Computing, Grid Computing, Peer-to-Peer”と題して、このようなモデルの成立する条件について述べた。ソフトウェアのアーキテクチャが単一化したこと、ネットワーク環境が完備したことは重要であるが、技術的な必要条件として、(1)complexity, (2)fault tolerance, (3)site autonomy, (4) security などがある。そのためには、object basedでなければならない。LegionはアーキテクチャやOSを隠す技術である。一種のGrid OSと見ることもできる。応用としては、(このあとメモなし)
  5. Tom Sterling
    Tom Sterling (ANL)がまた出てきて、megacomputingと HTMTは似ているといいたいらしい。megacomputingの技術的課題は、(1)並列度、(2)粒度、(3)data I/O capacity requirements、(4)latency tolerance, (5)fault tolerance and automatic checking and roll-back, (6)security (client confidentiality), (7)Business model。
    最先端計算の課題は、(1) ALU speed and memory capacity constraint (solution: VLSI), (2)Latency constraint, distance, overhead, contention (solution: vector / cache / multithread / NW / bandwidth /locality management), (3) Trust constraint (collaborative computing)。
    我々は間違っていたのか? (1)latencyは関係ない、(2)bandwidthは十分安い、(3)megacomputerはBeowulfより安い、(4)プログラミングは易しい。
    わたしのmegacomputerについての考えは、(1)同じソフトはGridには使えない、(2)正しい問題に適用しなくては (very large and wonderfully parallel, flexible, security insensitive)。May be the genesis of P-1 (P-1て何?)
    5つの質問

    1. Will it be an enabler? provide unprecedented computer capacity.
    2. Will it be an inhibiter? only suitable problems will be puch–d
      demise of innovative computer architecture
    3. Will efficiency continue to degrade?
    4. Will the integrated computer capacity continue to explode?
      What happens when everyone has a computer?
      Will most of our processing go off shore?
    5. What will P-1 do when it wakes up?
  6. 議論
    このあと議論があったがあまり盛り上がらなかった。
    ある人としゃべったことであるが、embarassing parallelではうまくいくかもしれないが、もう少し中間的な問題は可能か。また、パソコンが低電力化して、Crusoeのように非動作時には電気がほとんど流れないようになると、この構想は潰れるのではないか。電気代を払ってくれるならともかく。それから、もし情報機器が携帯機器に移っていくとするとだめになるかもしれないのではないか。

19) Top500(2000年11月、世界)
第16回目となるTop500がSC2000にあわせて11月3日発表になった。上位20位は以下の通り。性能はGFlops。前回の順位に括弧のついているのは、増強やチューニングで性能が向上したことを示す。トップはASCI Whiteであったが、8192 processorsで Rpeak=12 TFlops であるにも係わらずRmax=4.9 TFlopsしか出ておらず、チューニング不足と思われる。SSTは peak 3.8 TFlops で 2.1 TFlops までは出している。8位のSDSCのPower3マシンは、6位のNOAAのものよりCPU数が多いのに性能が出ていない。チューニングの余地があるものと思われる。日本のマシンで TOP10 は KEK のSR8000 だけである。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

1

LLNL

ASCI White, SP Power3 375 MHz

8192

4938.0

12288.0

2

1

SNL

ASCI Red – Pentium II 333MHz

9632

2379.0

3207.0

3

2

LLNL

ASCI Blue-Pacific SST

5808

2144.0

3856.5

4

3

LANL

ASCI Blue Mountain

6144

1608.0

3072.0

5

4

Naval Oceanographic Office

SP Poer3 375 MHz

1336

1417.0

2004.0

6

NOAA R&D

SP Power3 375 MHz

1104

1179.0

1656.0

7

(5)

Leibniz Rechenzentrum(ドイツ)

SR8000-F1/112

112

1035.0

1344.0

8

SDSC

SP Power3 375 MHz

1152

929.0

1728.0

9

6

高エネルギー物理学研究所

SR8000-F1/100

100

917.0

1200.0

10tie

7tie

アメリカ政府某機関

T3E1200 – EV56 598 MHz

1084

891.0

1300.8

10tie

7tie

US Army HPC Research C.

T3E1200

1084

891.0

1300.8

12

ECMWF(イギリス)

VPP5000/100

100

886.0

960.0

13

9

東京大学

SR8000/128

128

873.0

1024.0

14

10

アメリカ政府某機関

T3E900 – EV5 450 MHz

1324

815.0

1191.6

15

Charles Schwab(アメリカ)

SP Power3 375 MHz

768

795.0

1152.0

16

North Carolina Supercomputing C.

SP Power3 375 MHz

720

741.0

1080.0

17

11

ORNL

SP Power3 375 MHz

704

723.0

1056.0

18

気象庁

SR8000-E1/80

80

691.3

9768.0

19

12

LANL

Origin 2000 250 MHz

2048

690.9

1024.0

20

NCAR

SP Power3 375 MHz

668

688.0

1002.0

 

20) Top500(2000年11月、日本)
日本国内設置のマシンで100位以内は以下の通り。SR8000 が席巻している。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

9

6

高エネルギー物理学研究所

SR8000-F1/100

100

917.0

1200.0

13

9

東京大学

SR8000/128

128

873.0

1024.0

18

気象庁

SR8000-E1/80

80

691.3

9768.0

24

17

東京大学物性研究所

SR8000-F1/60

60

577.0

720.0

33

25

名古屋大学

VPP5000/56

56

492.0

537.0

35

26

京都大学

VPP800/63

63

482.0

504.0

37

28

産総研TACC

SR8000/64

64

449.0

512.0

49

35

筑波大学計算物理学研究センター

CP-PACS/2048

2048

368.2

614.4

59

44

理化学研究所

VPP700/160E

160

319.0

384.0

63

電力中央研究所

VPP5000/32

32

296.1

307.2

68

49

分子科学研究所

VPP5000/30

30

277.0

480.0

73

53

気象研究所

SR8000/36

36

255.0

288.0

76

56

東北大学

SX-4/128H4

128

244.0

256.0

79

58

金属材料技術研究所

SX-5/32H2

32

243.0

256.0

85

63

東京大学

SR2201/1024

1024

232.4

307.2

86tie

64

航空宇宙研究技術所(日本)

Numerical Wind Tunnel

167

229.0

281.3

86tie

北海道大学

SR8000/32

32

229.0

256.0

98

東北大学流体研究所

Orign 2000 300 MHz

512

195.6

307.2

 

次回はアメリカはじめ各国の企業の動きである。Intel社とAMD社は1 GHzのチップをめぐって大バトルを演じた。

 

left-arrow   new50history-bottom   right-arrow