新HPCの歩み(第195回)-2002年(k)-
HPC Asia 2002において、HP社のFrank Baetkeは「生き残るアーキテクチャは少数であろう。残念ながら、AlphaやPA-RISCはItaniumに置き換えられるであろう。」と述べたが、後の歴史を見ると結局どれも生き延びることができなかった。会場近くのC-DACの研究所を訪問し、インドのスーパーコンピュータPARAM Padma(ピーク1 TFlops)を見学した。 |
HPC Asia 2002
1) 概観
HPC Asia 2002 (The 6th International Conference/Exhibition on High Performance Computing in Asia Pacific Region) はシリーズの第6回として2002年12月16日から20日まで、インド南部バンガロア(Bangalore、Karnataka州の州都)のThe Leela Palace ホテルにおいて開かれた。当時のBangalore空港からは近い。2008年に新空港ができて、旅客はそちらに移ったようである。バンガロア(現ベンガルール)はインドのSilicon Valleyとも言われ、1000社以上のハイテク企業があるという。
筆者は出席を予定してなかったが、SC2002において2004年に第7回HPC Asiaを日本でやるということになったので、急遽参加した。インドは初めてであった。日本からは、筆者の他、村上和彰教授(九州大学)とその学生の中村君、さらに北陸先端の堀口教授のところの学生さんがいたようである。
前回から1年ちょっとしか経っていないが、インドは気候が一番穏やかな季節ということでこの時期を選んだ。このころアメリカ在住のインド系の人がクリスマス休暇をかねてどっと帰省する季節でもある。そういうコンピュータサイエンティストを呼び込もうという意図もあったと思われる。実際参加者の多くは、地元のインドの人と、アメリカで働いているインド系の人であった。
主催者によると参加者は500人弱。なかなかの数である。インド国内の若手には旅費の援助をしたとのことである。韓国からはSeoul国立大学機械航空力学科のSeung Jo Kim(金承祚)教授が来ておられた。昨年のGordon Bell賞のcost/performance部門で入賞した方である。韓国の秋葉原みたいなところで部品を買い集めて航空力学の計算をしたという成果であった。珍しい国ではブラジル2名、ガーナ1名など。他人のことは言えないが、インド英語にはかなり閉口した。
![]() |
|
2) 企業展示
会議場の近くにいくつかの展示が行われていた。関税が高いと言うことで、外国からはHPCの実物はほとんどなかった。
a) IBM社
Principal sponsorというだけあって、一番広い場所を占めているのはIBM社であった。BlueGene/LやMaui HPC CenterやGrid solutionなどパネルが主であるが広い分野で展示を出していた。17日にはUngaro副社長も顔を見せていた。写真中央はJose Moreira氏(IBM Thomas J. Watson Research Center)、左は田村榮悦氏(日本IBM、写真提供)。
b) Tata Elxsi社
Tata Elxsiはgold sponsorsの一つであるが、やはりTata Insiituteからのスピンアウトであった。Elxsiという80年代の並列サーバ会社(例によって倒産した)の名前が懐かしかった(HPCwire Japan 2021/9/27)ので聞いてみたら(Tata財閥はもともとElxsi社の主要出資者のひとつで)名前を買い取ったのだそうだ。現在の会社はハードではなくソフトやsolutionを売っている。酵素系のシミュレーションを行う製薬系のソフトなどの応用とともに、ポータブル自動並列化のソフトもある。帯行列に縁の付いた形の係数行列の方程式の並列化が売り物で、対角ブロックをプロセッサに割り付けるのだが、大きさが異なりロードバランスが悪いので、細かく分けた上で融合するというテクニックを開発したそうだ。右下のブロックはどうせごちゃごちゃになるので、密行列のLU分解による解法を用いる
c) SGI社
SGI社はOrigin 3000をはじめとするhigh-productivity servers、Linux 、Virtual Realityなどとともに、CXFSファイルシステムによるデータ管理を提示した。
d) Sun Microsystems社
Sun Microsystems社も、パネルだけではあるがportal initiativeやweb serviceによる新しいビジネスコンセプトを提示し、それらのインフラとしての位置を強調していた。あと、FirelinkでSunFireをつないだ高性能システムを紹介していた。
e) その他企業
Tektronixがロジアナを展示していたが、客は少なかった。また、CDC6400などという文字にびっくりしたが、California Digital Corporationという会社で、Itanium 2のサーバを出している。ARITHNETというtechnical servicesの会社もでていた。
企業スポンサーの中で、Hewlett Packard、Cray Inc.、Cisco Systems、Microsoft、MPO-TEKは展示を出していなかった。Cray社はBurton Smith自ら開会式に乗り込み、Industrial TrackではBurton自ら講演した。
f) C-DAC
C-DAC (Centre for Developmento of Advanced Computing、インド電子省の研究所)自身も大きな展示を出していた。目玉は、PARAM Padmaというテラフロップス級のMPP、いわばインドの地球シミュレータである。12月に完成したとのこと。PARAMは8000、8600、9000、10000と進歩してきた。8000は91年で、トランスピュータT800を128台接続した1 GFlopsの機械であった。10000はたしかSPARC baseだったと思う。PARAM PadmaはPARAM 20Kとも言うべきもので、1 GHzのPOWER4に基づく。4-wayのSMP (p630)が54台、32-wayのSMP (p690)が1台から成り、この間をFast Ether, Gigaabit Ether、それにPARAMNet-II という独自のネットワーク(2.5 Gb /s、ソフトからのlatencyは10μs。光ファイバー)で結んでいる(現在のところ、p690にはPARAMNetはつながってない)。合計248個のPOWER4プロセッサなので、ピーク性能は1005 GFlopsということになる。メモリは0.5 TB。OSはAIX/LINUXとあるが、聞いてみたらコンパイラの関係で現在はAIXだが、将来は混合して使えるとのこと。ファイルシステムは900MHzのUltraSPARC-IIIの4-way SMPを6セット使いQFSで0.4 TB、外部に5.1 TBのStorage Arrayを備えている。消費電力は160KVA、床面積は168平米、重量は9トン(空調の重量はなんと39トン)とある。どうも、p630クラスタの部分とp690の部分はファイル共用の別の計算機システムと見た方がよいようだ(後のC-DAC見学記参照)。既述のように、2003年6月のTop500では、コア数248、Rmax=532.00、Rpeak=992.00で169位にランクしている。応用として、インド地方のmeso-scaleの気候シミュレーション、石油探査のための地震のシミュレーション、DNAの相同性解析などを展示していた。PARAM シリーズ全体では52台製作し、数台は外国(ロシア、シンガポール、カナダ、ドイツなど)にも売れている。C-DACはPARAMNet-IIを使ったLINUX Clusterも製造している。
3) 開会式
16日(月曜日)は朝からいくつかのtutorialsが行われた。夕方18時から2時間にわたるにぎにぎしい開会式が開かれた。重要人物は壇上に。インド人がこれほど儀式好きとは知らなかった。
(1) まず、サリー姿の女性が現れて開会の長々しい歌をヒンドゥー語(?)で歌った。中味は分からず。メロディはインド風。
(2) 組織委員長のDr. Sharad Purohit (C-DAC)が歓迎の挨拶。HPCは今や贅沢ではなくむしろコスト削減であると強調。そのあとで、壇上の人物にPurohit氏から花束贈呈。
(3) Lamp Lighting Ceremony 点灯式。ゲストが集まって、ランプの8つの芯に蝋燭から点火。
(4) International Steering CommitteeのDr. David Kahanerが演説。HPC Asiaには二つの意味がある。一つはtechnical forumという意味、もう一つはindustry partnersの技術を共有すること。この二つの要素のバランスが大切。重要なのはnetwork of peopleである。
(5) Mr. R. K. Arora (C-DAC) この会議のcohostとしてC-DACのperspectiveを述べた。HPCは21世紀の技術である。アメリカの政策、ヨーロッパのESPRITプロジェクト、日本の地球シミュレータについてふれた。
(6) C. H. Mehta教授 (IISC, Indian Institute of Science) 。組織委員の一人。専門は有機化学。インドのソフトウェアの父、いや祖父だそうだ。なかなか哲学的な挨拶をした。
(7) V. S, Ramamoorthyによるtechnical programの開会式。何をやるのかと思ったら、銀紙の包装を破ってプログラムを取り出し、壇上のゲストに配布。続いてPresidential Address 。C-DACは国家的要請によってできた。禁輸で並列しか可能性がなくなった。そして今やTera Flopsにまで到達した(と、ここで拍手)。インドはCERNのLHCにも参加している。Gridはmustである。
(8) Rajeeva Ratna Shah (Secretary of Department of Information Technology, Ministry of Communication and Information Technology) かなり偉い人らしい。release of the proceedingsということで、銀紙を破ってCD のプロシーディングスを取り出した。さらに冊子体のプロシーディングスも取り出す(そんなのあったっけ?)。続いてIGRID (Indian Grid。実際はネットワークの話。)の重要性について演説。
(9) Purohitが壇上のゲストにmonumentを手渡す。この記念品は金属製の文鎮みたいなものだが、すべての招待講演者にも講演後に渡されていた。
(10) 最後にI. H. Patnaik (ACS)が皆に感謝の言葉を述べた。
(11) これで展示会場に移り、展示の開会式を行った。若干の食べ物とコーヒー/茶はあったが、デザートみたいなものでみんな文句。インドの人は甘いものが好きなようだ。 このあと関係者だけは庭のプールサイドで食事。筆者は、招待はされなかったが紛れ込む。ここでは、ちゃんとした食事と飲み物(ソフトドリンク、ビール、ワイン)もあった。
4) 中国のHPC/Grid事情
テクニカルプログラムは17日から始まった。
最初の基調講演(9:00~10:00)は、中国科学院コンピュータ技術研究所(ICT)のDr. Zhiwei Xuの”HPC and Grid in China”であった。プログラムには”HPC Research in China and the Vega Grid”とあった。
中国国内のHPCの会社として3つの例を挙げる。まずLegend(聯想)、これはICTから1981年にスピンオフした会社で、2001年からHPCに参入した。Lang Chao(浪潮)はもともとlow endのサーバの会社だが、今年からHPCに参入した。またDawning(曙光)も1995年にICTからスピンオフした会社で初めからHPCを目指している。 中国でのGrid projectとしては、Chinese National Grid (2002-2005)がある。4 TFlopsを越えるGrid Enabling Clusterを作り、10-18個(合計6-10 TFllops)のGrid Nodesを設置する。その上でGrid SoftwareとGrid Applicationsを開発する。応用としては、環境、製造、サービスなど広い範囲を考えている。 HPCおよびグリッドの例としていくつかの例を挙げる。 (1) Beijing Genomic Institute。Dawning 3000により今年4月に稲のシークエンスの概略を決定。10月には99%以上の配列を決定。 (2) Shanghai Insitute of Materia Medica。Gridを用いたdrug discovery。 (3) China Railways。投資計画と資産管理。 (4) 森林省。環境問題。 (5) 航空産業。部品のライフサイクル管理。 (6) Beijing Earth View(地球縦視)。7人の小さなNPOだが、環境問題の監視。 総じて中国のHPCおよびGridの市場は成長している。サーバは概して遊んでいるのでresource sharingとoverload-friendly serviceがGridの主要目的である。それに、Grid Enabling HPC Serversとかいうと予算が付く[と、本音をポロリ]。 ICTではThe Vega Grid Projectを進めている。中心はGSML (Grid Service Markup Language)である。OGSA (Open Grid Service Architecture)/Globusとは相補的なものである。 さてHPC/GridにおけるAsia Pacific Countiesの役割は何か。これまでITの分野で3回の波があった。Internet, Web, Gridである。中国は、RFCを1件出しただけで、webには寄与できなかった。Gridではもっとがんばらなくては。 結論として、HPC/Gridは15年以内に受け入れられる[ちょっと遅いような気もするが]。2つの最大の市場は中国とインドである。ケータイでは中国は1位である。world HPC researchに貢献しなくてはならない。Gridはinnovation opportunityを与えるからである。 |
5) プロセッサとOS
10:00~11:00は、Dr. Frank Baetke (Hewlett Packard)の”Status and Trends in High Performance Computing: Processors, Servers and Operating Environments”であった。マイクロプロセッサの動向を紹介しながらそれとなくHP社のサーバを宣伝しているという感じの基調講演であった。特徴的なスキンヘッドでどこかで会ったことがあると思ったら、かれは前にConvexにいたそうだ。その後、2018年にHPEを退社するが、EOFS議長に留まる。
プロセッサアーキテクチャは大きく変わった。昨年(2001)の主力は、Alpha 21264、PA8700、UltraSPARC III、R14000、POWER3であったが、今年は3つの方向に発展している。一つは、PA8700+やEV7/EV79 (21364)のように大きなon-chip cacheを置きout-of-orderを強化する方向。Alphaではチップ上にnetwork interfaceを持っている。もう一つは、POWER4やPA8800のようにチップ上に2つのCPUを設置する方向。そして最後がItanium 2で、他のチップとは全然違う戦略を採っている。 Itanium 2は4つの特徴を持っている。 (1) 大量の資源。128個の128 bitsのレジスタを二組(整数と実数)、多くの整数演算器、浮動小数演算器、特殊レジスタを持っている。(初代の)Itanium に失望した人が多かったが当然である。これは2.1 GB/sのメモリバンド幅しかなかった。Itanium 2は6.4 GB/s (128 bits @ 400 MHz)である。 (2) 投機的実行。たとえillegalであってもキャッシュにpreloadする機能を持っている。後でvalidかどうかチェックする。そのため特殊なレジスタが用意されている。 (3) EPIC (Explicitly Parallel Instruction Code)。ItaniumはVLIWであり、128 bitsに3つの命令を書けるが、templateという5 bitsのフィールドがあり(compilerが)依存性を指定できる。Itanium 2では1サイクルに6命令(2ワード)実行できるが、将来は12命令(4ワード)実行する予定。[後で質問があり、そうはいってもコンパイラが分かるのは静的な情報だけなので、依存性は指定しきれないのではないか、と。なにかごちゃごちゃ答えていた。] (4) 分岐予測。分岐の両方を並列に実行し正しくない方を捨てる。 Itaniumは最初からmultiple OSを前提に設計されている。HP-VXII, HP-UX, LINUX64, Win64など。この次はMadisonとDeerfieldで、後者は価格性能比を重視したチップである。 私の見方であるが、 (1) 生き残るアーキテクチャは少数であろう。残念ながら、AlphaやPA-RISCはItaniumに置き換えられるであろう。 (2) cc-NUMAを構成要素とした少数のノードから成るクラスタがはやるであろう。 (3) fat nodes(多くのCPUで構成された高性能なノード)の構成はccNUMAであろう。 ここでHP社のサーバを宣伝。自由に、かつ動的に複数のクラスタに再構成できる。しかも違ったOSでもよい。こういうことができるシステムは多くない(とHP社の優位を主張)。 メモリバンド幅は、ピークでなく実効値が重要である。cache line lengthの値で全然違ってくる。長いキャッシュ長は、見かけはいいが多くの場合有効でない。 さてOS環境であるが、まずローカルな環境つまりOSについて。Itanium 2では、HP-UX, LINUX, Win64が同居できる。WS上で、LINUXで開発したコードを、HP-UXのサーバで実行することも可能になる。真のmulti-OS enviroentsを提供するシステムは少ない[またもやHP社の宣伝]。 グローバルなOS環境はGridか、ずばりそうだ。Gridをdriveしているのはhigh energy physics のworld wide collaboration (LHC)である。 |
6) パラレルセッション
第2セッションは4並列のパラレルであった。それぞれ、最初に招待講演があり、あと4~5件の投稿論文発表が続く。今日の第2セッションは
(1) High Performance Architecture
(2) Signal and Image Processing
(3) High Performance Networks
(4) High Performance Computing I
であった。
第3セッションは、以下の通り。
(1) Scheduling
(2) High Performance Software
(3) Parallel Applications I
(4) Optical Communication
7) パネル(1) Terascale Computing Panel
17時から”Terascale Computing and Beyond”というパネルが開かれた。司会は、N. Balakshrinan氏。まず各パネリストが15分ずつ発題する事になった。
最初は、Prof. Bharat Soni (University of Alabama at Birmingham)で、機械工学の専門家。
20世紀の偉大な成果を20件上げる。その8番目のcomputer (SC >> HPC) についてplatformの変遷を見ると、現在はGridだ。シミュレーションには、geometry, meshing, adaptationの3段階があり、計算以外に時間が掛かる。また、21世紀の研究のチャレンジとして、効率、エネルギー、水、空気、土地・空気・大気の相互作用、輸送、ナノテク、microfluidicsの8項目がある。Terascale computingはこれらのすべてに大きく寄与する。 |
Karachi Kumar (iHPC, Singapore)は、まずiHPCの紹介を行った。
中心的なハードウェアはRegattaのクラスタ(POWER4 x 224 = 1 TF)である。応用の例としては以下のとおり。 (1) computational chemistry / material … ab initio MD (lead-free solder, boron-nitride nanotube) (2) simulation of quantum dots (3) computational MEMS (4) computational electromagnetics (要するにレーダーで飛行機がどう見えるか。CPUが足りない。) (5) Urban-level dispersion modeling (繁華街に化学物質を撒いたらどうなるか) (6) multiscale modeling (7) multiphysics simulations HPCは国家的優先課題であり、重要は大きい、教育も必要である、と述べた。 |
A. S. Kolaskar (University of Pune 副学長)はbioinformaticsの観点からHPCの重要性を述べた。
司会のBalakshrinan氏もインドの国家的イニシアティブとしてHPCを提示した。ではペタフロップスは同実現するか。1000000個のGFlops levelのマシンか、10000個の0.1 TF levelのマシンか、200 TFのマシン数個か?
結局、パネリストはTF級の計算機があればこんなことができるということをいろいろ示したが、費用・成果の評価については誰も語らなかった。質疑応答もいろいろあったが、まとまらないうち18:45にパネルを終了した。
8) 文化の夕べ
パネルのあとちょっとしたおやつがでて、19時半からインド舞踊「ダルマ・プージャン」があった。アレキサンダー大王がインドに進出するに当たり哲学者アリストテレスに意見を求めると、「インドは聖なる土地で、聖なる人が住んでいる瞑想の国である。万物が祝福されている。ギリシャ帝国の拡大ではなく、友情の拡大を目的としなければならない。これは一つの巡礼だ。」と諭される。アリストテレスがインドの6つの秘密の宝を述べ、それに対応する舞踏が示される、という嗜好である。音楽と台詞は録音だが、踊り手は男性と女性(大人からかわいい女の子まで)総勢20名ほどであろうか。
1) ガンジス川の聖なる水の壺
2) ラーマーヤーナの宇宙的物語
3) 竹の魔法のフルート
4) ある人物それ自体(誰のこと? 仏陀?)
5) 天と地をつなぐ赤い砂(塵)
6) マハーバーラタ、人生の至高の掟
アレキサンダー王の軍はインドに進出するが、インド王のsense of humorに感心して和解し、帰る途中に病に倒れる(33歳)。要するにインドは偉大な国だというオハナシ。舞踏の体(特に手、首など)の使い方は、タイの舞踏や(当然ながら)バリ島の舞踏などと似ている。さすが「ボリウッド(ボンベイ版のハリウッド)」の国柄である。
9) IBM社のHPC戦略
18日の最初の基調講演は、Dr. Tilak Agerwala (IBM, Emerging Business担当副社長)の”Architecture for High Performance Computing”であった。
計算科学は、実験、理論に次ぐ第3のモードである。[これはおきまりのテーゼだ]技術でも、ビジネスでもそうだ。「何が第1で、何が第2なのか?」科学の分野では、生命科学を例に挙げ、タンパク質の折れ曲がりをab initio MD [Car-Parrinelloかと思ったが、そうではなく古典MDを経験情報なしにやるということらしい]でやると1 PFlopsの計算機で1年掛かる(水を入れて32000原子と想定)。その他、材料、気候、核融合、天体物理学など。さらにビジネスでは[さすがIBM社と感心した]、real time businessをやるためには、configure-to-order (CTO) supply chainが必要で、そのためには2.4 PFlops必要である。 種々の応用における並列性を、横軸にgranularity、縦軸に並列度をとって分析する。HPCモデルとして、superscalar model, SMP model, vector model, parallel modelを挙げ、vectorはベクトル化率が高くないとだめだし、SMPは早く飽和するので、多くの場合(distributed memory) parallelがいい、と結論。地球シミュレータを意識して、ベクトルは高いしと批判していた。Top500のprogramming modelの変遷はこうなっている[といって怪しげなグラフを示した。Top500で、ハードウェアは分かるが、programming modelなど分からないはずだ。]要するに、SIMD(vector)からMIMDに移行していると言いたいらしい。 次はGridについて。まずグリッドとは何か。彼は”seamless high performance access to distributed computation and data resources”と定義した。[resourceを計算とデータだけに限るのはちょっと狭いのではないか。]グリッドは進化している。最初は、Altruistic grid (CPU scavenging)から始まったが、scientific grid, technical grid, commercial grid,そしてWWG (world-wide grid)へと進化している。WWGは、virtual organization with dynamics access to unlimited resourcesである。 問題は、The Challenge of Complexityだ、と。何をいうのかと思ったら最近のIBM社の標語であるautonomic computing, autonomics storage のことであった。高エネルギー物理のData Grid にはautonomic storageが必要である。 さてPetaflopsへの道はどうなるか。これには、evolutionary approachとrevolutionary approachとがある。evolutionary approachでは、要するにASCI Purpleの次を考える。20 GFlopsのCPUを64個SMPに組んだもの(1.25 TF)をノードとして1000並列にすればいい。もちろん、サイズ、重量、電力(15-20 MW)、冷却などたいへんであるが。revolutionary approachは、embedded microprocessorを用いたBlueGene/Lがその例である。cellular approachと言ってもよい。 結論として、HPCの未来はエキサイティングだ。 |
「これまでcellular approach のコンピュータはことごとく失敗してきたではないか」という質問が出た。従来のcelluar とは違うんだとか言っていた。
10) ソフトウェアの品質
18二つ目の基調講演は、Prof. C. V. Ramanoorthy (UC Berkeley名誉教授)の”Quality Concerns in Software Supported Systems”であった。インド出身のソフトウェア工学の大家のようであるが、83枚もスライドを用意して時間がない、という割には無駄話ばかりであまり面白くなかった。
要は、HPCはsoftware intensiveであるが、使いにくい、それをどう改善できるか、ということのようだ。通常、ソフトウェアの品質というと、functionality, reliability, usability, efficiency, maintenance, portabilityなどが挙げられるが、これらはwish list に過ぎない。品質はソフトウェアのライフサイクルを考える必要があり、ダイナミックなものだ。静的に考えただけではだめだ。
11) パラレルセッション
11:30から13:30は昨日と同じ4並列である。最初に招待講演があり、これに4~5件の投稿論文の発表が続く。
(1) Software and Web Applications
(2) Parallel Applications – II
(3) Peer-to-Peer and Grid Computing
(4) Scientific Applications
二番目に出た。招待講演は、Dr. Guru P. Guruswamy (NASA Ames) の”Development and Applications of a Modular Parallel Process for Large Fluid/Structure Problem”であった。これは、流体・構造連成シミュレーションのためのコードHiMAPの話であった。共同開発者の名前に大林茂氏(東北大)も入っていた。
中村君(九州大学、村上さんのグループ)が、投稿論文として”ERIC: A Special-Purpose Processor for ERI Calculations in Quantum Chemistry Applications”の講演を行った。
12) ワークショップ
午後の時間(14:30~19:00)はワークショップということで、やはり4並列に行われた。テーマは
(1) Wireless Networks — Evolution and Trends
(2) Performance of Computational Fluid Dynamics Software on Linux OS: A Case Study
(3) Computational Challenge in Bioinformatics
(4) Next Generation Optical Networks
ちょっとのぞいてみたがよく分からなかった。同じ時間に、Poster Sessionも開かれていたが、ポスターが張られていないボード多く、二三の元気のいい若手のところで盛り上がっていたほかは低調であった。
13) C-DAC見学
16時半からBangaloreのC-DACを見せてくれるという話を村上氏が聞きつけてきた。12~3人が参加した。マイクロバスでAirport Roadを空港に向かって走り、空港のあたりで左に曲がってかなり走った。研究所群みたいなところResearch Parkの一角にC-DACがあった。新しい5階建ての建物で、モダンで気が利いている。床は大理石(?)。その4階にPARAM Padmaが鎮座ましましていた。廊下からはガラス張り。
まず、運転室というか管理室のところに通され、管理システムや開発環境について説明とデモがあった。この部屋からはPARAM Padmaが一望で見渡せる。まずデバッガ・プロファイラ。Fortran 90 プログラムと対応しながらいろいろ見ることができる。call graphに始まって、automatic communication bottleneck detectorのようなものもある。だれかが、Rice大学のデバッガ(Dシステム)に似ていると言っていた。あと、運転のモニターシステムで、web式に表示され、ユーザ、プロセス、CPUやメモリの使用率などが表示される。通常のユーザも使えるということを強調していた。Padmaは今のところ所内でしか使えず、ネットワークには接続していないとのこと。
そのあとハードウェアの見学。いろいろ質問がでた。p690はいつ手に入ったのかとか、PARAMNet-IIの延長可能距離とか(50mとのこと)。私がMyrinetやInfiniBandがあるのになぜPARAMNetを開発したのかと聞いたら、Myrinetを使ったシステムもあるが、何か問題が起こるといつもアメリカまで聞かないとわからない、それなら自前のコネクションの方がいい、とのことだった。もしかしたら禁輸といった事態に備えているのかも知れない。お茶をいただいて18:30頃ホテルに帰り着いた。
14) ロシアのMathematical Modeling
19日の最初の基調講演は、Oleg M. Belotserkovskii (Russian Academy of Sciences) の”Mathematical Modeling using Supercomputers: Experiences and Results” であった。Belotserkovskii氏は、アカデミー傘下のInstitute for Computer Aided Designsの所長であり、またRussia-Indian Center for Advanced Computer Researchの総裁でもある。
彼はまず自分の研究所がPARAM8000を買うなどC-DACと関係が深いことを強調した後、その上で動くSpersolver: Software for Solution of “Large” Problem on Supercomputer を紹介した。それを使ったいくつかのシミュレーションを動画で見せた。まずGas Dynamics Toolという粒子法を用いたCFDのプログラムで、市街地でのプロパンガスの爆発、アパートの室内での爆発、砲弾、ロケットなどのシミュレーションを示した。特にアパートの爆発では、実験のシュリーレン写真との対応を示した。その他、油田の地震探査のシミュレーション、医学やbiomechanicsの例などを示した。
結論として、Hardware と Software と頭脳が重要であるが、Hardware + Brain = const. という仮説を提示した。ロシアでは、ハードは遅れているが優秀な頭脳があるからいいということであろうか。
15) インテルの戦略
Intel社はスポンサーに名を連ねながら展示は出していなかった。この日二番目の基調講演(全体の最後)で、Dr. Tim MattsonとDr. Herbert Corneliusが、”Grand Challenges in Scientific Computing”という話をした。Intel社はParagon以後HPC業界では影が薄くなっていたが、再びこの分野に乗り出すようだ。
始めにMattson氏がハードについて話した。
HPCに関するIntel社のビジョンは、CFD、ライフサイエンス、そして高エネルギー物理(LHCなど)である。HPCのモデルは、custom chipを使ったベクトルやMPPから、クラスタへと変わり、さらにグリッドに進化しつつある。Mooreの法則によれば2007年には、1 B transistors、10 GHzに達し、ペタフロップスも可能である。シリコンのプロセス技術は、2003年には90nm (リソグラフ)/50nm(ゲート長)になり、2011年には20nm/10nmになる。300mmのウェファが可能になっている。90nmを使えば52 MbのSRAMができる。将来的にはtera Herzのトランジスタも使える[本当?]。 並列性も、これまではinstruction parallelismが中心であったが、これからはthread parallelismが重要になる。消費電力も減少できる。これからの技術の中心は、ItaniumのEPIC(Explicitly Parallel Instruction Code?)、XeonのHyperthreading、それにNetBurst(Xeonの新しいアーキテクチャ)だ。2004年にはXeonは4 GHzになり、hyperthreadingが活躍する。Itaniumもpost-Madison(コード名Montecito) では2 GHzを越えるはずだ。 |
続いて、Cornellius氏が、ソフトウェアについて語った。
Intel社はsoftware development toolsに力を入れている。[買収した]KAI (Kuck and Associates, Inc.) からいろいろ導入している。コンパイラにはKAI OpenMP を導入した。KAI Assureというソフトを、Thread Checkという商品に導入した。これはrace conditionなどをチェックできる。またKAI Guide ViewをThread Profilerに導入。また、Vampirをparallel toolとして導入した。 ライブラリにも力を入れている。Math Kernel Libraryとして、線形代数、VML (Vector Math Library)などを開発した。VMLは、ベクトルに対するsin, exp, sqrt, invなどの基本関数を高速に計算するライブラリで、とくにItaniumで有効に働く。クラスタの共通のプラットフォームとしてOSCARがある。これは元々Open Cluster Groupで開発されたもので、これにはDell, IBM, Intel, MSC, NCSA, ORNL, Indiana U.などが参加していた。 世界最大のクラスタはLLNLのXeon 2.4 GHzを2304個使いLINPACKで5.69 TFを達成した。Top500で5位に輝いている。Top500のうち93はクラスタで、そのうち56はIntel architectureに基づいている。結論としてHPCはクラスタを使え、Yes Intel!! |
16) Vendor Session
11時半からは、Industrial Track Presentationであった。7社が15分ずつと言うことであったが、みんな超過して終わったのは13時58分。いた人もしびれを切らしてほとんど昼食に出かけてしまった。
a) IBM社
最初は、R. Chandrasekar (eService & Storage, IBM)の”Deep Computing with IBM”であった。名前はノーベル賞を取ったインドの有名な天体物理学者Subrahmanyan Chandrasekharを思い出させる。南インドのありふれた苗字で「月を髪飾りにする人」とかいう意味で、Shiva神の別名。
技術のトレンドとして、半導体のサイズが小さくなり、トランジスタの数が増え、クロックが速くなっている。POWER4は、銅配線、SOI (Silicon-on-Insulator)、low-k 誘電体などの技術を採用したチップである。カスパロフの写真を示して、Deep Blueから、BlueGene/L、Grid computing、そしてeLizaと技術が進んでいる。今後は、autonomic computing (すなわち、self-optimizaing, self-configuration, self-heal, self-protect)が重要な課題である[とIBM社の路線を強調]。結論は、”IBM is HPC” |
b) Sun Microsystems社
P. Sambath Narayanon (Product Technology Consaltant, Sun Microsystems)は”Higher Performance Computing Storage area networks: HPCSAN”と題してストレージ戦略について語った。
ストレージは単なる箱ではなくアーキテクチャが重要である。Sun ONE (open network environment), XML, CTM, HTMLなど。新しいHPCデータモデルを考えると、monolithic boxにはscalabilityがない。従来のSANにはストレージの共有はあっても、データの共用がないのが問題である。SunのHPCSANは、cross-platform connectivity, metadataなどのコンセプトを含む。BoeingやSDSCの例を挙げた。 |
c) Microsoft社
George Spix (Direct Advanced Systems, Microsoft)は、”Res..d and its Tools, Science in the .NET era”と題してMSの戦略を提示した。彼自身は、最初CDC(72- )続いてSteve Chenの下で働き(83-92)、それからMSに来たようだ。
計算科学の例をいろいろ挙げたのち、科学とビジネスのdata miningの違いを述べた。Virtual observatoriesやSloan Digital Sky Serveyなどを例に、web serviceとgridとのシナジーを強調した。 |
d) Tata Elxsi社
Prabhakar Sinhaが”HPC Practices”と題して話した。
我が社は並列処理と科学計算・可視化をサポートする。並列回路シミュレーションのソフトについて、そのプラットフォームとして、Sun E450/4、SGI Power Challenge/4、にあわせてHitachi SR2201/128を挙げた。[こんなところにもSR2201があるとは知らなかった。]その他、バイオや信号処理なども扱う。 |
e) Cray社
Burton Smith自らが、「Cray社の見解ではないが」と断りつつ、”Petaflops with PIMs”という話をした。会社の宣伝というより、彼のアイデアの披露であった。
ペタフロップスに達するためには、共有メモリ(大きなスケールではNUMAであろう)、scalable latency toleranceを持つプロセッサ(つまり、vectorかmultithreadedかboth)で、長距離接続は光であろう。では、PIM (Processor-in-Memory)は何かの助けになるか。確かに近くにおけるのでlatencyは小さくなる。しかし共有メモリにするためにはグローバルなバンド幅がなくてはならない。PIM間におけるlocalityが必要である。 局所性を、横軸にtemporal、縦軸にspatialを示して分析。temporal localityを活用するにはキャッシュとかレジスタとかがある。しかし、同期のコストが高くなると言う問題がある。このことはあまり気づかれていない。spatial localityを活用するには、キャッシュラインを長くすればいいが、取ってきたデータが使われない場合には無駄になるし、coherenceを保とうとするとfalse sharingの問題がある。 PIMではultra-light weight (ULW) threadを導入することができる。これはspatial localityは活用できるが、tempral localityは活用できない。thread migrationはどこまで安くできるか。thread contextは32-64Bであろう。遠くのPIMへのenqueueは1命令で可能。Hashed address spaceはどうか。hot bankを防ぐことはできるが、長いメモリキャッシュラインが必要。PIMの中ではいいかもしれない。では、ULW threadsへのコンパイルはどうなるか。LW threadへのコンパイルは、MTAのコンパイラが既にやっている。だからあとはどこまで最適化できるかである。依存性解析、ループ変換、インライン化などの技術が重要になる。スパース行列・ベクトル積を例に詳しく述べた。 結論。PIMは新しいアーキテクチャのopportunitiesだ。この話は、Tom SterlingらとHTMT projectを研究した時の成果である。 |
f) SGI社
Andrew Wyatt (HPC-HPV Asia Pacific, SGI)が”HPC and SGI”という講演を行った。オーストラリア英語だった。
SGI社の存在理由は、計算、可視化、ストレージ管理の3つである。計算パワーとしては、NUMAflexを出している。MIPSまたはItanium 2に基づいている。可視化の製品はいろいろ出している。「百聞は一見に如かず」という中国語を示していた。ストレージ管理としてはHSMを出している。SGI社の標語は、”Powering the Science ahead!”である。 |
g) Hewlett Packard社
これに対してHP社のJim Kapadiaは”Visualization for HPC”と題して、PCで可視化を実現する方向を示した。
可視化の重要性として、”Seeing is believing”という英語のことわざを引用した。HP社はASCI QやPSCなどにHPCを納めているが、スケーラブルな可視化のためにSEPIAというカードを開発している。まだ製品にはなってないが、これが実現するとSGI社のlow-endはかなり苦しくなるかもしれない。 |
17) パネル(2)
最後17時から二回目のパネル討論が行われた。タイトルはHPC研究の産業への意味というようなことらしいが、パネリストもその場で引っ張り出したり、何かまともに準備していない感じである。参加者もまばら。C. H. Mehta が地震による石油探査の意味と困難について述べ、あとPatnaik, Purohit, R. Madanなどがバラバラな意見を述べた。この辺の人は、理論物理(素粒子)出身の人がおおいようだ。何か分からないうちに終わった。
18) 閉会式
18時から閉会式。それぞれ偉い人が挨拶し、その労をたたえ、industrial exhibitの出展会社に花束を贈呈し、とまたもや長々しい儀式。Purohit組織委員長がまとめの挨拶をし、最後に筆者が「次回のHPC Asia 2004を2004年5月ないし6月に日本で行う」と宣言した。”After such a beautiful city, nowhere in the world could be equivalent to it” などとお世辞を言ったらインド人に受けていた。
次は、アメリカ企業の動き(その一)である。IBM社は新社長を迎えプロセッサもサーバも半導体技術も頑張っている。新生Cray社は、X1を発表した。HP社はSuperdomeでミッドレンジをわしづかみにしている。Sun Microsystems社の業績はどうなるか?
![]() |
![]() |
![]() |