HPCの歩み50年(第88回)-2002年(d)-
アメリカ政府のDOEはASCI計画を推進する一方、NSFはTeraGridを構築し分散的テラスケール環境を実現する。DODはHPCS(高生産力コンピューティングシステム)を打ち出す。世界中でグリッド関係の国際会議が多数開催されている。「グリッドとは何か?」人によって答えは違うようである。

アメリカ政府の動き
1) TeraGrid
NSFは、2001年8月、分散したテラスケール施設を目指して$53MをNCSA、SDSC、ANL、Caltechの4カ所に投じて分散的テラスケール環境DTF (Distributed Terascale Facility)を構築し、これを40 Gb/sの高速のネットワークで接続すると発表した。このTeraGridは、世界最強のコンピューティング・グリッドのプロジェクトである。全システムの納品をIBMが担当し、内容はItanium2 (McKinley)ベースのLinuxクラスタとストレージ製品である。光ファイバー・ネットワークは、 Qwest Communication 社から供給される。グリッドの基本ソフトとしてGlobusを参加研究機関で開発する。
2002年10月、NSFは3つの研究機関(NCSA, SDSC, PSC)に$35Mの資金を投入しTeraGridを拡張することにした。ANLとCalTechは上記3機関を通して資金を受け取る。これによりTeraGridはPSC (Pittsburgh Supercomputing Center)が加わってサイト数が5に増えた。前年の記事に書いたように、PSCはすでにNSFから$45Mを得て、TCS-1 (Terascale Computing System)と呼ばれるテラスケールシステムを構築していた。これらを合わせ、総計算能力は20 TFlops、ストレージは1 PBとなる。コンピューティングを担当するNSCAでは2002年4月、160台のdual Itanium IBM IntelliStationからなるマシンTitanの運用を開始した。
ANLとNCSAは20 Gb/sのネットワークでつながっているが、2002年秋の終わりまでに、Qwest Communications社は、シカゴのハブStarLightとロサンゼルスのハブをつなぐ40 Gb/sのバックボーンネットワークにより、イリノイ州のこの2カ所を、カリフォルニア州のSDSCとCalTechと結合する。PSCは30 Gb/s のネットワークにより、StarLightとつながる。
5機関の分担は以下の通り。
- NCSAは第2世代および第3世代のItaniumプロセッサを用いたLinuxクラスタにより、10 TFlops以上の計算資源を提供する。合わせて、230 TBのSANストレージを持つ。
- SDSCは500 TBのSANストレージを落ち、データサービスを担当する。現存のSunFire 15000に加えて、2台の32プロセッサPOWER4データベースサーバーを持つ。さらに、4 TFlopsのItaniumのLinuxクラスタと、1.1 TFlopsのPOWER4計算機も持つ。
- PSCは6 TFlopsのTCS-1システムと、0.3 TFlopsのHP Marvelシステムを持ち、512 GBのメモリを持つ強力な共有メモリ計算能力を提供する。合わせて、150 TBのディスクキャッシュを持つ。
- ANLはTeraGridの遠隔レンダリングと可視化の役割を担う。ネットワーク180ノードの可視化クラスタは、研究者に開放されている可視化クラスタとしては最大である。
- CalTechのCACRはSun Microsystemsのデータサーバにより、データ解析を行う。このシステムはミドルサイズのTeraGridサイトのプロトタイプとなる。
新しい機器は今後1年半以内に配備される。アメリカ中の研究者は Internet2やAbileneネットワークによりTeraGridにアクセスできる。
正式発表はなかったが、2002年11月、Itainum 2を800個以上搭載したIBMのクラスタ(コード名Man-of-War)がNCSAに設置され動き始めた。最終的には3300個のItanium 2を搭載することになる。
2) ASCI Q
2002年の完成を予定していたASCI Qの完成は遅れ、2003年になった。2000年のところに書いたように、DOEのNNSA (National Nuclear Security Administration)は2000年8月22日、ASCI Whiteの次の30 TFlops級のマシンASCI Q(LANLに設置)をCompaq社に発注したことを発表した。DEC Alpha EV68 (1.25 GHz) を32個搭載のAlphaServer GS320約375台をQuadricsのネットワークで結合したものを予定していた。CPU総数は12000個、総メモリは12 TB。当初は2002年に運用開始を予定していたが、登場したのは各10 TFlops(つまり1/3規模)のマシン2台だけで、全体の完成は2003年に遅れることになった。そのため不幸なことに地球シミュレータの後塵を拝してしまい、最初から2位であった。先にはASCI PurpleやBlueGene/Lが控えている。もっとも不運なASCIであった。
3) ASCI Purple
SC2002の最終の2002年11月20日11時(MST)に、当初計画では最後のASCIであるASCI Purple(100 TFlops級)は、IBMが受注し、LLNLに設置されることになったと発表があった。ASCI WhiteもBlueGene/LもLLNLに置かれる。ASCI Purpleは、12000個のPOWER5コアからなるSMPクラスタで、一つのSMPは64プロセッサで256コア、メモリは256GBとのことであった。システム全体は200個のSMPノードからなる。相互接続網のバンド幅はピーク64 GB/s。2004年12月までに設置を完了とのことであった。
4) BlueGene/L
LLNLのもう一つのスーパーコンピュータはBlueGene/Lである。2002年1月ごろの発表では、180/360 TFlops with 16 TBとのことであった。ピーク性能が2種類あるのは、プロセッサチップ上にある2つのCPU(コア)の両方を計算につかうか、片方を計算にもう一方を通信に使うかのちがいであろう。当初の計画では完全なPIM (Processor-in-Memory)で、1 PFlopsに対し500 GBしかなかったのと比べるとだいぶ現実的になった。180 TFlopsに対し16 TBというと、B/ Flopsは0,09で、地球シミュレータの0.25と比べてもそれほど遜色はない。しかも、実効性能のピーク性能に対する比はベクトルよりも悪いと考えれば、ほぼ同じレベルである。この裏に、Columbia大学の格子ゲージ専用コンピュータであるQCDSPやQCDOCのグループから助っ人が行って、設計に影響力を行使したという話もある。
5) ASCI Redstorm
米国Cray社とSNL (Sandia National Laboratory)は米国時間10月21日、AMD Opteron(後述)を用いた超並列スーパーコンピュータ“Red Storm”の納入について$90Mの複数年契約を結んだと発表した。ピークは40 TFlops。これはASCI計画の一環として新たに計画されたもので、運用開始は2004会計年度の予定。
6) NERSC
LBNLにあるNERSC (National Energy Research Scientific Computing Center)は2001年1月“Seaborg”という新しいスーパーコンピュータをOaklandの新しい拠点で運用を開始した。2002年11月9日、DOEはこれを増強し、プロセッサ(POWER3)の数を3328個から6656個に倍増させる契約を結んだことを発表した。2003年4月までにアップグレードを完了する予定。これでピーク性能は10 TFlopsとなる。NERSCの歴史上初めてCray社のコンピュータが存在しなくなるとのことである。
2003年6月のTop500では、SeaborgはRpeak=9984 GFlops、Rmax=6656 GFlopsで4位を占めている。
7) HPCS (DARPA)
アメリカ国防省のDARPA (Defence Advanced Research Projects Agency 国防高等研究計画局)は、それまで実効性能よりピーク性能に重点が置かれていたことの反省の上に立って、2002年6月にHPCS (High Productivity Computing System)プロジェクトを開始した。国防および産業用に生産性の高いスーパーコンピュータを開発するプロジェクトで、ハードウェアのみならずソフトウェアをも対象とする。2010年までの9年間にわたる長期計画で、Phase I, II, IIIに分かれ、Phase IではIBM、Cray、Sun、HP、SGIのベンダ5社が参加した。
8) SDSC
SDSC (San Diego Supercomputer Center)は、2001年2月にセンター長がSid KarinからFran Bermanに変わって体制も一新された。何人かの著名な人物が役職から離れたり、センターを去ったりした。Big iron路線からクラスタ/グリッド路線に転換したようである。MTA-1も撤去された。
9) North Carolina Bio-Grid
IBM社は2つのグリッドプロジェクトに参加した。一つは、アメリカで最初のBio-Gridプロジェクトの一つであるNorth Carolina Bioinformatics Gridで、ライフサイエンス研究用に、計算、ストレージ、ネットワーク資源を提供する。IBMとNCGBC(North Carolina Genomics and Bioinformatics Consortium)が開発する。NCGBCには、University of North Carolina System, Duke University, GlaxoSmithKline Inc., the Research Triangle Institute, SAS Institute, Biogen, the National Institute of Environmental Health Sciencesなど60もの大学、企業、バイオメディカル研究所が参加している。
10) Pennsylvania大学乳がん グリッド
IBMが援助したもう一つのプロジェクトはUniversity of Pennsylvania(Pennsylvania State Universityではない)が主催した乳がんのためのグリッドである(InfoWorld誌2002年11月4日号)。 乳がん治療のための、高速レントゲンデータ検索、コンピュータによる診断補助、パターン認識、レントゲン経費の削減、訓練を目的としている。参加者は、ORNL、University of Pennsylvania、University of Chicago、University of North Carolina、sunnybrook and Women’s College Hospital (Tronto)である。NDMA (National Digital Mammogram Archive)は北米の病院をつなぎ、どこで取ったX線画像でも直ちに参照できるようにする。技術基盤はIBMのGlobus Toolkitである。
11) アメリカの「地球シミュレータ」
2002年6月頃のNew York TimesやZDnetなどの報道によると、アメリカに気象シミュレーション用のスーパーコンピュータが計画されている。第1フェーズでは、44台の IBM eServer p690のクラスタを作り、ピークは7.3 TFlopsとのことである。契約は3年ごとに最大2回まで更新でき、2回更新された暁には100 TFlopsを越える、という勇ましい話であった。その後噂は聞こえてきません。
12) 輸出緩和
1月Bush大統領はアメリカの企業が高速計算機をロシア、中国、インド、中東諸国に輸出する規制を緩めた。
13) FY2003 Blue Book
アメリカ政府はFY2003 Blue Book:”Strengthening National, Homeland,and Economic Security”を8月に公開した。ちなみにアメリカの2003年度は2002年10月から始まる。ここでは、政府支援によるIT研究開発の最重要目的は「米国の国家、国土および経済の安全保障の強化」のためであり、NITRD 計画により開発された先進技術が国家、国民および経済の安全の確保にいかに貢献しているかが強調されている。ハイエンドコンピューティング関係(HEC)予算は全体の半分近く(44.8%)を占めており、当初よりNITRD 計画の中心的存在となっている。NSFのTeraGrid、DOEのSciDAC (Scientific Discovery through Advanced Computing)などが強調されている。
14) Gordon Moore
Intel社の名誉会長Gordon Mooreは2002年7月4日Bush大統領から大統領自由勲章(the Presidential Medal of Freedom)を授与された。これは文民に授与される最高の勲章で、このときNelson MandelaやPlacido Domingoなどももらっている。かれは電話インタビューで、「今後倍増する時間は遅延するかもしれない。30nmになるとデザインの壁がある。現在の技術に代わってナノテクノロジを使う可能性もあるが、技術が十分発展していない。」と述べた。でも人間の創造性は科学的予言を越えてきた。「振り返ってみると、光学的限界のため1ミクロンより小さくなることなど考えられなかった。今後ぶち当たる壁は、かつての壁より遙かに根源的なものとなるに違いないが、きっとデザイナーは何十億トランジスタを組み込む方法を見いだすであろう。」なおMooreは、1990年にお父さんのブッシュ大統領(41代)からアメリカ国家技術賞(the National Medal of Technology)を受賞している。
世界の学界の動き
最初にグリッド関係の会議をまとめる。筆者が調べた範囲で記す。他にもいろいろあったと思われる。
1) PRAGMA
PRAGMA (The Pacific Rim Application and Grid Middleware Assembly)の第1回が、2002年3月11~12日にSan Diegoで開催された。ホストは、SDSCとUCSDのCatl-IT2。これはNPACI All Hands Meeingに併設して開催された。組織委員長はPhilip Papadopoulos (UCSD/SDSC/Cal(IT)2/CRBS)、副委員長はSangsan Lee (KISTI)。
第2回のPRAGMAは、2002年7月10~11日に韓国ソウルで開催された。ホストはKISTIで、Grid Forum Koreaに併設されて開催された。組織委員長はSangsan Lee (KISTI)、副委員長は田中良夫(産総研)。
2) ApGrid
1月頃、第1回ApGrid Core MeetingがタイのPhuket島で開催された
第1回のAsia Pacific Grid Workshop 2001が2001年10月22~24日に品川プリンスホテルで開催されたのに続いて、the 2nd ApGrid Workshop / Core Meetingが5月14~17日台北で開催された。
3) CCGrid 2002
昨年に引き続きCCGrid 2002 (2nd IEEE/ACM International Symposium on Cluster Computing and the Grid, 2002)が5月21~24日にベルリンのthe Berlin-Brandenburg Academy of Sciences and Humanities (formerly Prussian Academy of Sciences and Humanities)で開催された。Genral ChairsはAlexander Reinefeld (Zuse Institute and Humboldt Universität, Berlin, Germany)とKlaus-Peter Löhr (Freie Universität, Berlin, Germany)。Program Committee ChairはHenri E. Bal (Vrije Universiteit, Amsterdam, The Netherlands)。以下の5件の基調講演が行われた。
a) Charlie Catlett, “The Philosophy of TeraGrid: Building an Open, Extensible, Distributed TeraScale Facility”
b) Chris Johnson , “Visualization and VR for the Grid”
c) Andrew Chien, “Distributed Computing Technologies and Their Application to Drug Discovery”
d) Reinhard Schneider, “Drug Discovery on Cluster Farms”
e) Hans Falk Hoffmann, “From the “Higgs Particle” to Technology, From the Web to the Grid: Fundamental Science, Technology, and International Cooperation”
4) HPDC-11
HPDC-11 (11th IEEE International Symposium on High Performance Distributed Computing, 2002.)が、2002年7月24~26日にEdinburgh International Conference Centerで開催された。GGF5に接続して開催された。
5) iGrid 2002
これは、高速ネットワークを活用して、世界中の様々な分野の研究者と、広域分散処理、バーチャルリアリティ、大型データベースなどの技術を使って共同研究を行うプロジェクトである。第1回はSC98の研究展示として出され、第2回はINET 2000(パシフィコ横浜)に併設して開催された。今回のiGrid 2002は2002年9月23~26日にAmsterdam Science and Techology Center (WTCW)で会議に合わせて開催された。
6) Folding@home
一般ユーザのPCの遊休資源を活用する分散コンピュータでは、2000年10月1日にStanford大学のPandeグループがFolding@homeを始めた。2002年10月21日、このグループは、3万台のPCの参加により、villinというタンパク質のアミノ酸36個からなるheadpiece(ポリペプチド)のnative構造へのたたみ込みを再現するのに成功したとNature誌オンライン版で発表した。Pandeらはensemble dynamicsという手法を用い、対象分子の初期座標は同一だが、PCごとに初期速度が異なる独立の分子動力学計算を行い、その結果からタンパク質のたたみ込みの障壁エネルギーや速度を求めるものである。従って、完全なmaster-worker型の並列計算で、いわゆるembarrassingly parallelのカテゴリーに属する。
7) 「グリッドの3条件」
グリッドの定義についてはいろんな人がいろんなことを書いている。これはGRIDtodayの2002年7月22日号に載ったIan Foster (ANL)の解説である。年ごとに少しずつニュアンスが変わっていることを指摘している。
1998年にCarl Kesselmanと私は”The Grid: Blueprint for a New Computing Infrastructure”という本を出版し、その中で「計算グリッドとは、先端的計算能力への、信頼性が高く、一貫性があり、普遍的で安価なアクセスを可能にする、ハードウェアおよびソフトウェアの情報基盤である」と定義した。続いて2000年にSteve Tueckeと書いた”The Anatomy of the Grid”では、社会的政策的課題に対応するために、グリッド計算は「ダイナミックで、複数組織にわたるvirtual organizationにおいて、調整されたリソース共有と問題解決」に関係していると述べた。重要な概念は、リソースの提供者と消費者の間のリソース共有を調整し、得られたリソースプールを特定の目的のために使用する能力である。「問題とする共有はファイル交換に限られず、むしろコンピュータ、ソフトウェア、データや他のリソースへの直接アクセスである。それは、産業、科学、技術から生じる共同の問題解決およびリソース仲介戦略によって決定される。同時に標準プロトコルが相互運用性や共通インフラを可能にする手段として重要であると指摘した。
この定義のエッセンスは簡単なチェックリストで確認することができる。あるシステムがグリッドであるためには、以下の条件を満たさなければならない。
a) リソースが中央集権的な制御の下にないこと。グリッドとはそもそも、異なる制御ドメインの下にあるリソースやユーザを統合するものである。グリッドとは、異なるセキュリティポリシーや支払いやメンバシップなどから生じる問題を解決するべきものである。
b) 標準的で公開された汎用のプロトコルやインタフェースを使うこと。グリッドとはそもそも、認証、許可、リソースの発見やアクセスなどの根本的な問題を解決するための、多目的的なプロトコルやインタフェースなのである。
c) 並以上の質の高いサービスを提供すること。グリッドはそもそも、それを構成するリソースを調整された形で提供することにより、応答時間、スループット、可用性、セキュリティなどの多様なサービスの質を提供し、複雑なユーザの要求に合致するよう複数の型のリソースを同時に割り付けるものである。こうして、グリッドは部分の和よりずっと大きい有用性を与える。
このチェックリストの解釈について問題がないわけではないが、たとえばSun Grid Engineのようなクラスタ管理システムは、中央主権的であるのでそれ自身はグリッドではない。他方、Platform Computing社のMultiClusterや、Condor、Entropia、United Devicesの提供する分散コンピューティングシステムはグリッドと呼ぶことができる。
世界の学界の続きは次回。Heidelbergで開かれたISC2002ではTop500が発表され、地球シミュレータが堂々の1位を獲得した。
(タイトル画像: IBM BlueGene/L 出典:Lawrence Livermore National Laboratory Web Page)
![]() |
![]() |
![]() |