世界のスーパーコンピュータとそれを動かす人々


12月 4, 2023

新HPCの歩み(第165回)-1999年(g)-

小柳 義夫 (高度情報科学技術研究機構)

招待講演の一種であるが、朝の並行プログラムのない時間に4件のState-of-the-Field talksを配置して、インターネット、データマイニング、計算・ネットワーク融合、性能評価の講演があった。論文発表などと並行する招待講演も6件行われた。Andrew Chienは今後クラスタが広く利用されるようになると予言した。

SC 99

 
   

1) はじめに
SC99–International Conference for High Performance Computing, Networking, Storage and Analysis は1999年11月13日~19日にオレゴン州Portlandで開催された。12回目である。Portlandは1993年の第6回に続き2回目の開催である。1999年の冒頭に書いたように、筆者はバチカンの教皇庁文化評議会総会に出かけたので、残念ながら欠席した。通算3回目の欠席である。記録によると、総参加者5100人、テクニカル登録者2124人、展示は149件、論文投稿223件、採択65件とのことである。電総研、融合研、筑波大、東工大、お茶大、東大、地球シミュレータ、新情報、九州大学、ベストシステムズからの参加者が合同レポート(電総研研究速報、TR-2000-2 「SC99報告」)を書いているが、現在はインターネット上から消えている。RWCP 10年史には、RWCPがSC99において並列分散コンピューティング技術によるシームレスコンピューティングシステムの研究展示を行ったことが報告されている。また『ハイエンドコンピューティング技術に関する調査研究I』の159ページ以下に参加報告が載っている。

2) 組織
SC99の組織委員長はCherri Pancake (Oregon State University)、副委員長はJohn Ranalletti (LLNL)、委員長代行はLouis Turcotte (USAE)であった。プログラム委員長はBob Borchers (NSF)、投稿論文委員長はDavid Baily (NERSC)であった。日本からは三浦謙一が入っている。この年は、分野を細かく分け、Language and environments, Distributed computing, Visualization, Numeric algorithms, Data mining, Tools, I/O and data management, architecture and technology, Scientific applications, Networking, System Management, Performanceの12分野にそれぞれ副委員長を置いている。

3) SCinet
SCではこの回から展示ホールに無線LANを設置した。SCinetの容量は年ごとに増加し、展示者の中には、SCinet WANで自分のホームに置いたマシンにリモート接続してデモを行うものも現れた。

4) 企業展示
IBM社、SGI社、Compaq社、Sun Microsystems社、Hewlett-Packard社などが広いブースを確保して出展していた。日本系の企業も、富士通、日本電気、日立が最新のスーパーコンピュータを展示していた。

5) 研究展示
研究展示については、この年から点数制で場所決めをすることになったようである(企業展示は不詳)。

アメリカの大規模研究組織である、ASCI、NASA、NPACI、NCSAなどが出展していた。日本からも、原研計算科学技術推進センター(CCSE)、電総研、東京大学(ADVENTURE Project)、地球シミュレータ研究センター、JST Super Computer Complex、航技研、RWCP (Real World Computing)、RIST、埼玉大学、理研、東京大学(GRAPE-5/6)、早稲田大学が出展した。未来開拓「計算科学」からは岩崎・牧野プロジェクトと吉村プロジェクトが共同で出展した。

研究・企業を合わせて157の組織が出展したとのことである。

6) 基調講演
基調講演(16日9:00-10:00)はDonna Shirley (President, Managing Creativity)が、‟Managing Creativity”と題して講演した。ShirleyはJPLにおいて火星探査の責任者であった。彼女は独創的な仕事を行うために必要なプロジェクト・マネージャーが示すべき態度について述べた。Rover, Lander, Rocky, Pathfinder 等の写真をまじえ以下のように語った。

独創的な組織のためには、多様性、団結、デザイン/計画、管理リスク、製作スピード、展開、配置、評価、情報伝達などについて考慮する必要がある。独創的な研究チームは多様性に富み、以下の三つのDonnaの法則がある。第一の法則は「managementはバランスをとることである。」第二の法則は「多様性のある研究チームは創造力のあるチームである。」第三の法則は「多様性のある研究チームは均一なチームよりもmanageが難しい。」(自分の法則をたくさん定義しているようです)

創造力のあるチームを率いていくためのDonnaの第六の法則は「managerはcomfortableあるいはproductiveのどちらかになることができる。」である。心配、不安材料が少ないと自己満足となり、退屈、無関心な状態となる。適度にあると、創造的な緊張感となり、興奮状態となる。でも、多すぎると恐怖状態となり、闘争が起きてしまう。

適度な団結が必要である。また、団結に関する第四の法則は「要求は誰かがそのために進んで支払うまで要求とはならない。」である。

デザイン/計画に関しては、適度に技術的に意欲的なものが必要である。管理リスクのために、適度な制御、規制が必要である。管理がいきすぎると用心がすぎてしまう。製作のスピードが遅すぎると、完了しないし、速すぎると燃え尽きてしまう。適度な製作スピードが必要である。人の配置に関しても、組織との係わりあいが多すぎず、少なすぎないよう気を配る必要がある。視察が少なすぎるのは警告のサインであり、適度にあると支えとなり、効率的になる。しかし多すぎると資源の無駄であり、人々の意欲をなくしてしまう。

情報が少なすぎると、無知となってしまうし、逆に多すぎると圧倒されてしまう。適度な情報量が重要である。

 

この項は建部修見(電総研)の報告および常盤祐司(日本IBM)の報告に基づく。

7) State-of-the-Field talks
State-of-the-Field talksは以下の4件。並行セッションのない単独イベントである。

17日(水)

8:00-9:00

State of the Art of the Internet

Vinton G. Cerf (MCI WorldCom)

9:00-10:00

Distributed Data Mining: Problems and Opportunities

Salvatore J. Stolfo (Columbia University)

18日(水)

8:00-9:00

HPC meets .com: The Convergence of Supercomputing and Super-Internet Architectures

Greg Papadopoulo (Sun Microsystems)

9:00-10:00

Performance: Myth, Hype, and Reality

Daniel A. Reed (UIUC)

 

a) Vinton G. Cerf
Vinton G. Cerfはインターネットの現状と将来の動向について述べた。

b) Salvatore J. Stolfo
Salvatore J. Stolfoは分散データベースを用いたKDD/DM(Knowledge Discovery in Database and Data Mining)について講演した。

c) Greg Papadopoulos
Sun Microsystems社CTOのGreg Papadopoulosは、ネットワークの重要性を次のように述べた。

 HPCはインターネットコンピューティングのトレンドの恩恵を受けている。また,プラットフォームでは、superinternetはsupercomputingを含んでいる。

 以前はアプリケーションの発展とプロセッサの発達においてフィードバックループが形成されていたが、現在はネットワークのコンテンツとバンド幅に対し同様のループが形成されている。プロセッサはムーアの法則に従っているが、WAN、LANのバンド幅は3-6ヵ月で倍になるギルダーの法則(Gilder’s Law)に従っている。バンド幅は今後急激に広くなる。

 インターネット環境では、既に10000のCPUがつながり、数千万のユーザが同時に使用し、数テラバイトのネットワークディスクというような環境が実現されている。キーとなるのはシステムのスケーリングとマネージメントの複雑さの関係である。

 Superinternetのアーキテクチャにおけるネットワークには、インターネット、フロントエンドネットワーク、マシンルームネットワークがある。インターネットとフロントエンドネットワークの間にルータ、firewallがあり、マシンルームネットワークにはWeb層、アプリケーション層、データベース層がある。

 現在、AOLでは、数万CPU、数千万ユーザ、数テラバイトネットワークディスクといった環境があり、またSETI@HOMEでは同様の環境で計算を行っている。また別の例では蛋白質データベース(http://www.rcsb.org)がある。

 Superinternetプラットフォームはsupercomputerである。Supercomputerは食物連鎖にはいる。全てのものはネットワークサービスとなる。

 

d) Dan Reed
Daniel A. Reed (UIUC)は“Performance: Myth, Hype, and Reality”と題して次のように述べた。

 性能解析では、性能を測定し、解析し、設定し、最適化する能力が必要となる。また、解析のレベルも複数あり、ハードウェアレベル、システムソフトウェア、実行時システム、ライブラリ、アプリケーションレベルがある。

 HPCに関するなぞ(conundrum)がある。すなわち「巨大なコストを(特にソフトウェアに)かけるのに対し,大きいとはいえないマーケットサイズ。HPCにおいては,我々はいかに大金を得ることができるであろうか?」CDC6600, ILLIACIV, Cray1, Charles Babbageより学ぶことは,時間が解決策であるということである。調子が良くなるためには時間が必要である。

 性能評価に関しては、現在まで性能ツールワークショップにより検討、研究を行ってきた。性能の測定ということについては、ハードウェアカウンタ、オブジェクトコードパッチ、コンパイラ統合などにより、より精密な測定が可能となっている。

 次の未開拓領域では、アプリケーションはダイナミックとなる。資源の要求、利用可能性は時とともに変わり、異機種による実行環境となり、地理的にも分散している環境となる。また、コード、スレッド、プロセス、プロセッサのレベル、SAN,LANのレベル、国内、国際ネットワークのレベルといった、階層的な表示、解析が必要となる。グリッド環境においては、アプリケーション、システム、ネットワークが変わり、振舞の再現性がなくなる。また、マルチ言語、マルチモデルや、実時間制約、共有資源といった、ヘテロなアプリケーションとなる。

 予測、スケジューリング、コンパイルに関して,Aydt, Berman, Chien, Dongarra, Foster, Gannon, Kennedy, Kesselman, Johnsson, Reed, Wolskiなどが参加しているGrADSという組織がある。

 システムの複雑さはどんどん増している。計算グリッド、多くの学問領域に渡るアプリケーション、それらの性能ツールなど。また、適応的最適化など、未解決問題はたくさんある。

 ソフトウェアの問題は非常に大きく、個人個人で解決することはできない。一緒に解決する必要がある。オープンソースによる協力が必要である。オープンソースは、極めて有力なモデルであり、一緒に問題解決をすることができる。このコミュニティを「骨折」させてはいけない.

 

この2件は建部修見(電総研)の報告に基づく。

8) 招待講演
招待講演は、以下の6件があった。論文発表などと並行している。

16日(火)

10:30-11:15

100 Gbps or Bust: Building Wide Area High Performance Networks

Dona Crawford (SNL)

11:15-12:00

Supercomputing on Windows NT Clusters: Experience and Future Directions

Andrew A. Chien (UCSD)

17日(水)

10:30-11:15

Merging Advanced Microscopy with Advanced Computing

Mark Ellisman (UC San Diego)

11:15-12:00

The ABC’s of Large-scale Computing and Visualization: ASCI, Brains, Cardiology, and Combustion

Chris Johnson (U of Utah)

18日(木)

10:30-11:15

Human-competitive Machine Intelligence by Means of Parallel Genetic Programming

John R. Koza (Stanford Medical School)

11:15-12:00

Achieving Petaflops-scale Performance through a Synthesis of Advanced Device Technologies and Adaptive Latency Tolerant Architecture

Thomas Sterling (Caltech and JPL)

 

a) Dona Crawford
Dona Crawfordは、“100 Gbps or Bust: Building Wide Area High Performance Networks”と題して、アメリカの国立研究所を接続するネットワークバックボーンについての現状と、今後の見通しを以下のように語った。

 ASCIでは数年後に100 Teraflops級のマシンの導入が予定されており、それらを有効に広域接続することがゴールである。具体的には1 TFlopsあたり1 Gbit/sec、つまり100TFlopwだと100 Gbit/secの相互リンクが必要である。さらに、DOEの研究は核関係など国家機密のものが多いので、それらはプライベートネットワークとし、さらに暗号化する。

 今後超広帯域の並列のデータの転送がスーパーコンピューティングでは重要になる。Parallel FTP, parallel socket library, secure parallel file copy などがあり。そのため、現状ではTeraOpsというテストベッドを研究所内で構築中であり、広帯域ネットワークのどこにボトルネックがあり、どのように除去できるかを研究している。その成果により、スループットは10倍、数十Megabyte/秒に達することができた。今後はそのlocal parallel IP architectureの成果をWANにスケールし、基盤とすることが必要である。物理的なWANのスループットを最大限活用し、かつsecureでなくてはならない。そのようなものを、次世代のASCIのWANアーキテクチャとして提案している。

 この場合、通常のネットワークと並列ネットワークを分離し、かつVirtualなsecurity空間を作り、性能を確保するためauthenticationやencryptionはTCPの端点で直接行う。(リンク単位のPoint-to-pointではなく、end-to-end)。バンド幅のテクノロジとしてはDWDMを用い、既存のcommercial carrierからバンド幅を買い付ける形で実現し、最初の購入は2000年中である。(CarrierはNortelだという話がある。実際、NortelはOC192 x 32で100Gigabitを実現する話をshow floorで行っていた。)問題は,. New Mexicoでキャリア幹線から複数のOC-192のラインを持ってくるところにある。(“The last 100 miles problem”)。

 その他にもGST, USWest, Lucent/Qwest, Telecordia, GTE, Giganet, Pathforward、など が関わっている。

 

b) Andrew Chien
Andrew Chienは、“Supercomputing on Windows NT Clusters: Experience and Future Directions”と題して、かれらのNTクラスタの活動を総括した。かれらはHPVM (High Performance Virtual Machine)とその実行環境であるNT SuperclusterをNCSA, SDSCと共に研究開発しており、通常のUnix系のクラスタではなく、Windows NTのx86およびAlpha PCを大規模並列クラスタとして活用する仕事をこの数年行ってきた。

 まず、クラスタの隆盛をもたらした要因として、マイクロプロセッサの劇的な性能向上、MyrinetやGigabit Ethernetに代表されるギガビット級のコモディテイな”killer network”の誕生、およびデスクトップOSの進化とその上での豊富で高機能・高性能なライブラリおよびツール郡の開発をあげた。

 その上で、クラスタを実現するためには、独立したノード計算機を一つに見せ(single system image)、ネットワークの高性能通信を実現する低オーバーヘッドの通信ライブラリ、およびシステム全体のCPU, メモリ、ディスク、ネットワークのバランスを生かすソフトウェアが重要だと述べた。

 次に、彼らのHPVMに関する紹介を行った。HPVMの一番低位のレイヤはFM (Fast Messages)と呼ばれる通信ライブラリであり、これは様々な高性能ネットワークハードウェアに統一された使いやすいインターフェースを与え、かつguarantee of delivery fault tolerance, flow controlなどを実現し、さらにハードウェアのフル性能生かすものである。

 FMの上に、PVM/MPI, put/get, global array, BSPなどの高レベルな通信レイヤが更に実現される。HPVMは1994年から第三世代目の実装になっており、Myrinet, Giganetなどで、ほぼハードウェアの最高性能に近い100Mbyte/secを得ることができ、かつ低レイテンシ(10-30μsec)なため、最高バンド幅の半値を数百バイトで実現する。しかしそれでも、Originと比較するとHPVM NT SuperclusterのFlops/Network roundtrip timeは10倍程度の開きがあるが、SP2と比較すると10倍以上よく、Beowulfに比較すると20倍)これにより、レーテンシハイディングが容易になり、さらにスケールしやすくなる。

 次に、NCSAなどに設置されたさまざまなNT Superclusterの紹介を行った。また、他のNT Clusterの研究例としてSandia’s Kudzu Cluster (10/98)やCornell’s AC3 Velocity Cluster (8/99)を上げ、さらにベンダから多くの商用クラスタがある旨が紹介された。どの場合も10倍以上のコストパフォーマンスの向上が得られた、と報告されている。

 最後に、今後の研究の方向性として、超広帯域WANとクラスタ処理の融合、クラスタを大規模なストレッジサーバとして用いる研究、規模に応じたクラスタ構築手法などを挙げた。

 

以上2件は松岡聡(東京工大)の報告に基づく。

c) Mark H. Ellisman
Mark H.Ellisman (UC San Diego)は、分子~ミトコンドリア~脳全体にわたる一連の構成要素をドメインとして捉え、ミトコンドリアを対象としたTomographyを開設した。また、大阪大学にある電子顕微鏡が衛星通信でアメリカと接続されており、それを通した共同研究を紹介した。

d) John R. Koza
 18日のKozaの講演では、彼が提唱しているGenetic Programmingについて講演した。

e) Thomas Sterling
これに続くThomas Sterlingの講演は、2月のPetaflops IIと同じくHTMTについて述べた。

次回はSC 98の「その二」で、パネル討論、Birds-of-a-Featherセッション、各種受賞、Top500などについてお伝えします。

 

left-arrow   new50history-bottom   right-arrow