世界のスーパーコンピュータとそれを動かす人々


1月 14, 2025

新HPCの歩み(第216回)-2004年(g)-

小柳 義夫 (高度情報科学技術研究機構)

シンクタンクのJASONはASCI Qが地球シミュレータに負けたことに注目し、ASC Red Stormに肩入れした。DOE長官は地球シミュレータをしのぐ50 TFlopsのスーパーコンピュータを2年間$50MでORNLに建設すると発表した。Columbia号の空中分解事故対策の予算増をコンピュータに注ぎ込んだNASAは、BlueGene/Lとデッドヒートを演じる。

アメリカ政府の動き(続き)

省庁によって増減はあるが、2005会計年度(2004年10月~2005年9月)において、研究開発(R&D)予算の総額は$131.9Bで、2004会計年度の$126Bより増額されている。(HPCwire 2004/11/26)

7) DOE(NLCF、予算増)
2月に2005年度のDOE (Department of Energy)予算案が報じられた。これは前年度より4%増で歴代最大であり、とくに最先端コンピューティングとそれによる科学研究に重点を置いている。総額$24.3Bのうち$204MはASCR (Advanced Scientific Computing Research program)に割り当てられている。また、$38Mは次世代コンピュータアーキテクチャプロジェクトに当てられる。ナノテクノロジー研究には昨年より$8M多い$211Mが割り当てられ、4つのセンターが設置される。ITシステムの認証のために$107M、サイバーセキュリティの研究開発に$99Mなど景気がよい。(HPCwire 2004/2/6)

2004年5月頃、エネルギー省は、ASCRプログラムの一環として、NLCF (National Leadership Computing Facility国家主導計算施設)という5年計画を公募し、ORNLとANLを採択した。この計画では地球シミュレータを上回るスーパーコンピュータの開発に取りかかることが報じられた。

これらの資源を気候シミュレーションや新薬開発を初め、自動車、航空機、化学などの諸産業に提供する。

ASCIプロジェクトが軍事目的を中心としているのに対し、これは民生産業界への貢献を謳っている。(Wired 2004/5/14) DOEのSpencer Abraham長官は、2年目となるINCITE (the Innovative and Novel Computational Impact on Theory and Experiment) programに、NERSCから550万ノード時間の計算時間と100 TBのデータ記憶を提供すると述べた。(HPCwire 2004/7/16)

ORNLでは、2004年、CCS (Center for Computational Sciences)をOLCF (Oak Ridge Leadership Computing Facility)に改名した。現在ORNLにあるCray X1 (10 TFlops)を倍に増強し、2005年には20 TFlopsのCray Red Stormを入れる、とのことであった。

ALCF (Argonne Leadership Computing Facility)がANLに設置されるのは2006年である。ANLは5 TFlopsのIBM Blue Geneを入れ、2006年には100 TFlopsのCray X2を入れ、2007年には250 TFlopsに増強する。そのための建屋は170,000 ft2 (15300 m2、4600坪)で、計算機室は40,000 ft2でスタッフは400人。電力は12 MWでTVA(テネシー渓谷開発庁)から供給するとか。Cray X2導入は実現せず、2008年Blue Gene/Pが導入される。

2004年8月には2006年度予算(2005年10月~2006年9月)の議論が始まり、ブッシュ政権はHPCに優先的に投資すると述べた。再選されるつもりのようである。(HPCwire 2004/8/20)

8) ASCIからASCへ
1995年に始まったDOEのASCI (Accelerated Strategic Computing Initiative)計画は、ASCI Red, ASCI Blue Pacific/Mountain, ASCI White, ASCI Q, ASCI Red Stormと開発されたが、当初予定の10年間が経過した2004年にASC (Advanced Simulation and Computing Program)と名称変更された。

9) INCITE Program
DOE長官Spencer Abrahamは6月、革新的な大規模計算科学プロジェクトを支援するために前年開始した公募制の資源提供プログラムINCITE (the Innovative and Novel Computational Impact on Theory and Experiment)の募集が始まったことを発表した。今回は、NERSCのIBM社の計算資源550万ノード時間(全体の10%に当たる)と、100 TBのデータストレージを提供する。このプログラムは大学、研究機関および産業界からの提案を求める。このプログラムの趣旨から、少数の大規模計算の計画を受け入れる。要求資源は100倍を超えたので、2004年ORNLに、2006年ANLに新たな資源を用意する予定である。

10) SNL(JASONの議論、Red Storm、LAMMPS)
2003年のところに書いたように、科学技術の観点から政府に提言を行う独立グループJASONはASCI Qが地球シミュレータに負けたことに注目し、今後どんな性能改善が可能かを議論していた。ASCI QのようなSMPクラスタでは高い性能を安定的に実現することは困難であることから、ASCI Redの後継としてRed StormというMPPを開発することが2002年ごろ決まっていた。製作はCray社が担当し、2 GHzのOpteronプロセッサ11648個をCray独自の相互接続網で結合する計画である。詳細については大原雄介氏の記事「ASCI Redの後継Red Storm」を参照。

2004年7月、SNL (Sandia National Laboratory)でRed Stormの開発を担当するBill Camp部長は、9月末までに41.5 TFlopsのマシンを設置し、来年1月までに稼働させると述べた。2005年末までにdual core processorに置き換える。Core当たり25%高速なので、ピーク性能は100 TFlopsになる予定である。相互接続網以外ほとんどがCOTS(汎用品)の部品を用い、空冷で、地球シミュレータの1/4の電力しか消費しない。価格も安い。相互接続はSeaStarネットワークチップが担当し、バンド幅は双方向4.5 GB/s、レイテンシは最大5 μsである。SeaStarチップはPowerPC 440 coreを用い、IBM社が製造した。Opteronプロセッサとは800 MHz DDR Hypertransportで接続され、SeaStar同士は3次元メッシュ接続である。Red StormはCray XT3として、quadcore版はXT4として商品化される。(HPCwire 2004/7/30)

Top500上でのRed Stormの動向は以下のとおり。最初は5000コアで、当初の予定よりは遅れているようである。なお、dual coreなのに奇数もあるのはなぜであろう。

日付

順位

プロセッサ

コア数

Rmax (TFlops)

Rpeak (TFlops)

2005/6

10

2.0 GHz

 5000

15.25

20

2005/11

6

2.0 GHz

10880

36.2

43.5

2006/6

9

2.0 GHz

10880

36.2

43.5

2006/11

2

2.4 GHz dual

26544

101.4

127.4

2007/6

3

2.4 GHz dual

26544

101.4

127.4

2007/11

6

2.4 GHz dual

26569

102.2

127.5

2008/6

13

2.4 GHz dual

26569

102.2

127.5

2008/11

10

2.4 dual / 2.2 quad

38208

204.2

284.0

2009/6

13

2.4 dual / 2.2 quad

38208

204.2

284.0

2009/11

17

2.4 dual / 2.2 quad

38208

204.2

284.0

2010/6

21

2.4 dual / 2.2 quad

38208

204.2

284.0

2010/11

31

2.4 dual / 2.2 quad

38208

204.2

284.0

2011/6

36

2.4 dual / 2.2 quad

38208

204.2

284.0

2011/11

50

2.4 dual / 2.2 quad

38208

204.2

284.0

2012/6

82

2.4 dual / 2.2 quad

38208

204.2

284.0

 

SNLでは、1990年代中頃から、分散メモリ上で動く並列(古典)分子動力学プログラムLAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator)を開発し、FORTRAN77によりLAMMPS 99を、Fortran90によりLAMMPS 2001を開発してきたが、より柔軟なC++により全面的に書き直し、2004年9月1日にオープンソース・ソフトウェアとして公開した。その後も継続的に改良が続けられている。

11) ORNL(NLCFスーパーコンピュータ、管理運営)
DOE長官Spencer Abrahamは、2004年5月12日講演を行い、地球シミュレータをしのぐ50 TFlopsのスーパーコンピュータを2年間$50MでORNL(Oak Ridge National Laboratory)(テネシー州)に構築すると発表した。「われわれは、大きな配当、重大な科学的発見、有意義な技術革新、医療の進歩、経済競争力の強化、生活の質の向上がもたらされることを期待して、米国の科学インフラに多額の投資を行っている」。「日本人の功績は称えられるべきだが、米国はスーパーコンピューティングにおける確固たる優位を取り戻すために必要なことをなさねばならない」

ORNL所長のJeff Wadsworthは、「本所のNLCF (National Leadership Computing Facility)は、アメリカ中の科学者技術者に、所属や予算とは無関係に開かれている」と述べた。ORNLの計算機科学・計算科学担当副所長のThomas Zachariaは、「NLCFスーパーコンピュータは、人間の理解の限界にチャレンジするスケールまで科学計算を加速させる」と述べている。(ITmedia 2004/5/12)

担当するCray社によれば、まず現在のCray X1を20 TFlopsに増強し、2005年には20 TFlopsのRed Storm型のシステムを付加する。2006年には100 TFlopsに、2007年には250 TFlopsに増強するとのことである。(HPCwire 2004/5/14)(HPCwire 2004/5/21)

Top500によると実際の設置は以下の経過をたどった。

Cray Vector

初出

順位

機種

コア数

Rmax (TFlops)

Rpeak (TFlops)

2003/11

20

Cray X1

252

2.9329

3.2256

2004/6

20

Cray X1

504

5.895

6.451

2005/11

17

Cray X1E

1014

14.955

18.333

 

Cray XT-series

2005/6

11

Cray XT3, 2.4 GHz

3748

14.170

17.990

2005/11

10

Jaguar-Cray XT3 2.4

5200

20.527

26.960

2006/11

10

Jaguar-Cray XT3 2.6 dual core

10424

43.480

54.2048

2007/6

2

Jaguar-Cray XT4/XT3

23016

101.700

119.350

2008/6

6

Jaguar-Cray XT4 2.1 quadcore

30976

205.000

260.200

2008/11

2

Jaguar-Cray XT5 2.3 quadcore

150152

1059.0

1381.4

2009/11

1

Jaguar-Cray XT5 2.6 6core

224162

1759.0

2331.0

2012/6

6

Jaguar-Cray XK6 2.2 16core + NVIDIA 2090

298592

1941.0

2276.09

 

このあとTitanに続く。

ORNLは、University of TexasとBattelle研究所により運営されて来たが、5年間の契約が2005年3月31日に切れる。エネルギー省は、12月、この契約を更に5年間延長すると発表した。(HPCwire 2004/12/17)

12) LANL(研究所閉鎖)
2003年(e)に書いたように、LANL (Los Alamos National Laboratory)は、1998年以来管理上の問題が指摘され、John C. Browneは2003年1月辞任した。今度は、核開発の秘密が書かれた2枚のディスクが行方不明になったとして、2004年7 月16日(金)に研究所の活動を一日停止して、所員はその捜索を行った。見つからなかった。飛んでもないスキャンダルである。(NBC News 2004/7/30)

 
   

13) NASA(Columbia、BlueGene/Lとの競争)
2002年6月のTop500から首位を独占してきた地球シミュレータ(35.86 TFlops)を凌駕するスーパーコンピュータ同士のの競争が起こっていた。NASAとSGI社は、2004年10月29日、NASA Ames LaboratoryにItanium 2ベースのスーパーコンピュータColumbiaを設置し、世界最高の性能を出したと発表した。 (HPCwire 2004/10/29) これは、512プロセッサを搭載したAltix 3000を20台Voltaire Infinibandで接続したシステムである。 Columbiaという名称は、2003年2月1日、大気圏再突入中に空中分解し、乗員7名全員が死亡したスペースシャトルを記念したものである。この事故への対応としてAmes研究所に多額の予算が付き、コンピュータも増強されたとのことである。このときの発表では、設置した20ラックのうち16ラック(すなわち、10240プロセッサの内8192個)を使って、Linpackで42.7 TFlopsの性能を出している。競争相手であるIBM社内設置の BlueGene/Lの性能は36.01 TFlopsなので、Columbiaこそ「世界最速のスーパーコンピュータ」という訳である。BlueGene/L が多少性能改善をしても、残りのプロセッサを稼働させれば追い抜けると踏んでいた。競争はデッドヒートの様相を示してきたが、さて11月のTop500の結果は?(写真はNASAのページから)

14) NAVOCEANO
アメリカ国防省のNAVOCEANO (the Naval Oceanographic Office)は、2003年11月のTop500では18位のIBM p690(1.3 GHz、コア数1184、Rmax=3.16 TFlops、Rpeak=6.156 TFlops)を持っているが、これを約5倍に増強すると発表した。(HPCwire 2004/3/19)(HPCwire 2004/8/6)

2004年11月のTop500では、IBM p655 (1.7 GHz POWER4+)が、コア数2944、Rmax=19.31 TFlops、Rpeak=20.0192 TFlopsで9位にランクしている。

15) NSF(PACI終了)
NSF (National Science Foundation)は1997年10月からPACI (Partnerships for Advanced Computational Infrastructure)を発足させ、Illinois大学のNCSA (National Center for Supercomputer Applications)を中心とするコンソーシアムNCSA (National Computational Science Alliance)と、San Diego Supercomputer Centerを中心とするコンソーシアムNPACI (National Partnership for Advanced Computational Infrastructure)が活動していたが、2004年9月末(年度末)にプログラムを終了した。2004年10月からはTeraGridがフル稼働に入った。

16) NSF(TeraGrid発足、サイバー攻撃)
2001年8月にNSFはTeraGridと名付けられた巨大なグリッド環境の構想を発表していたが、そのPhase Iが2004年2月やっと動き出した。動き出したのは、800個以上のItanium 2を含むIBM社のLinuxシステムであり、2003年春に設置されたNCSAの2.7 TFlopsのクラスタ、およびSDSCの1.3 TFlopsクラスタである。PSC (Pittsburgh Supercomputing Center)の3000プロセッサAlphaServerSC(6 TFlops)もTeraGridのインフラの一つである。Phase Iは総計20 TFlopsの計算能力を提供する。(HPCwire 2004/2/9) Phase IIは、2003年12月に設置され、この春にも稼働する予定で、更に11 TFlopsを提供する。

NSF側の責任者のPeter Freeman教授(Georgia Tech)は、「TeraGridシステムの第1段が公式に稼動し科学研究が始まったことをうれしく思う。最先端のスーパーコンピュータ資源は、サイバーインフラストラクチャにとって本質的であり、TeraGridはNSFが最高性能の革新的な計算資源を提供することにコミットしていることを示している。」と述べている。Freeman教授は2月初め日本を訪問し、関口智嗣、松岡聡、村井純、筆者などと会っている。

FBIや国土安全保障省によると、大学や研究機関を荒らしまわっていた侵入者(いわゆるハッカー)は、さっそくTeraGridにも侵入し、NCSAやSDSCのマシンの機能をしばらく停止させた。このような巨大な資源の停止は、何万台ものPCの停止に匹敵する損害である。この攻撃は恒久的な損害は与えなかったが、より高度なサイバー犯罪に注意せよと呼びかけている。(HPCwire 2004/4/16)

Wikipediaによれば、2004年10月からフル稼働に入った。

17) TACC (Lonestar更新、Maverick)
2003年TACC(Texas Advanced Computing Center)は、Cray社がDell PowerEdge 1750サーバ(3.06GHz Pentium4 Xeonを2基搭載)300台をLonestarクラスタに構成したが、2004年、128ノード(3.2 GHx Pentium4 Xeon)を追加した。合計428ノード(856プロセッサ)、メモリ892 GB、ディスク43.6 TBに増強した。相互接続はMyrinet2000。(HPCwire 2004/6/18) 2004年11月のTop500では、コア数1024、Rmax=4152.00 GFlopx、Rpeak=6338.00 GFlopsで40位にランクしている。

TACCとSun Microsystems社は、UltraSPARCを搭載した3次元可視化装置を装備したスーパーコンピュータMaverickを設置し、TeraGridに提供すると発表した。このシステムは両者で1年にわたって共同開発されたものである。(HPCwire 2004/10/8) その後、2014年にはXeonとNVIDIAを搭載したMaverickを、また(年不明)Maverick2を設置している。Maverickは、アメリカ合衆国の開拓者の一人の名前であり、テキサス州の郡の名前であり、NBAのチーム名でもある。一般名詞としては、集団から離れた変人、孤独を好む者などを指す。

18) National LambdaRail
National LambdaRailはアメリカにおける科学研究のための光ファイバネットワークであるが、専用のdark fiberを設置し波長多重により高速転送を実現する。アメリカの有力大学・研究機関や企業が参加したコンソーシアムにより運営される。第1段階として、シカゴにあるTeraGridの施設とPSCが結ばれ、2003年11月17日に始動した。2004年には全米に光ファイバが設置された。40チャンネルの波長が使用され、1チャンネル当たりの転送速度は当初10 Gbpsであった。その後、40 Gbpsに高速化され、100 Gbpsも開発中である。National LambdaRailが提供するのはファイバ自体なので、同じファイバを使って、技術の進歩とともにバンド幅を向上できるのが特徴である。SC2004ではNational LambdaRail Inc. (NLR)のTom Westが基調講演を行った。

19) Army Research Laboratory(Evolocity II)
メリーランド州AberdeenにあるArmy Research Laboratoryは、2004年2月、Linux Networx社から2132基のXeon 3.4 GHzを搭載したEvolocity IIクラスタを導入すると発表した。接続はMyrinet。これは、1992年から始まったアメリカ国防省HPC現代化プログラム(HPC Modernization Program)の一環であり、プログラムの中では最大のIntelクラスタとなる。2004年11月のTop500では、コア数2048、Rmax=87700.0,Rpeak=13926.0 GFlopsで、13位にランクしている。愛称は”John Von Neumann”。さらにLinux Networx社は、256プロセッサのシステムをDODの2か所のHPCセンターに設置した。(HPCwire 2004/8/20)

20) NCSAの新所長
NCSA (the National Center for Supercomputing Applications, The University of Illinois at Urbana-Champaign)の創立者所長Larry Smarrを継いで4年間所長を務めてきたDaniel A. Reedは、University of North Carolina at Chapel Hillに新たに作られる学際計算センターの初代所長としての指名を受諾することを2003年12月に発表していた。就任は2004年1月。

しばらく空席であったが、2004年10月に化学者のThom H. Dunning Jr.が、大学理事会の承認を経て、2005年1月から所長の任に付くことが発表された。3代目である。(HPCwire 2004/10/15)

21) ウェストバージニア州(オープングリッド)
WVHTC (The West Virginia High Technology Consortium)は1990年にAlan B. Mollohan議員によって創設された組織であるが、2004年12月、Global Grid Exchangeの利用開始を祝って、Mollohan議員、Bob Wise州知事を迎えて盛大な式典を行った。これは、Parabon社のソリューションFrontierを利用して、コンピュータの遊休時間を集めてユーザに安価に提供するものである。このような遊休グリッドを州の規模で運用するのは世界初である。(GRIDtoday 2004/10/25)(HPCwire 2004/12/13)

ヨーロッパの政府の動き

1) DEISA
2004年~2008年に、DEISA (Distributed European Infrastructure for Supercomputing Applications)にEuropean CommissionのFP6 (6th Framework Programmes for Research and Technological Development)の予算がついた。DEISAプロジェクトそのものは2002年からDEISA1として始まっている。DEISAのインフラストラクチャはヨーロッパの11のスーパーコンピュータセンタを10 Gb/sのネットワークで結合している。全体では4000プロセッサ以上、22 TFlopsの計算能力を持つ。(HPCwire 2004/11/15)

2) EUのグリッド補助
2004年9月10日、EU(欧州連合)は、グリッドコンピューティングに€52Mの補助金を12件の研究プロジェクトに投入する決定を下した。補助金の大部分は4件の大きなプロジェクトに向けられ、それぞれ€9Mずつ提供される。それらは、

a) The SIMDATプロジェクト—自動車、航空、製薬産業に一般的なグリッド技術を提供する。
b) The NEXTGRID プロジェクト—ビジネスや産業界の要請に応えたグリッドアーキテクチャを開発する。
c) The AKOGRIMO プロジェクト—移動通信とIPv6の技術を開発し、e-healthとe-learningの応用を開発する。
d) The COREGRID プロジェクト—既に存在するグリッド研究組織を、仮想的なCOEを作ることにより統合し、全ヨーロッパにわたる統合研究プログラムを作り出す。

このプロジェクトは、EUのFP6 (6th Research Framework Program)の一部であるIST (Information Society Technologies) researchの予算から支援される。ヨーロッパではCERNなどを中心に研究のためのグリッドの技術は進んでいるが、これはそれを商業利用や産業界に移転することを狙ったもののようである。9月15日には、Brusselsのthe Charlemagne building, Rue de la Loiで発足イベントが開催された。(European Commission 2004/9/7) (CNET Japan 2004/9/10)(GRIDtoday 2004/9/13)

3) FZJ (Research Centre Juelich)
IBM社は、Juelich Supercomputer Centreにp690クラスタを設置すると発表した。このクラスタは、41台のp690から構成され、各690は、32基のPOWER4+を搭載し、全体はIBM Cluster Systems Managementにより制御される。(HPCwire 2004/2/20) 2004年6月のTop500では、コア数1312、Rmax=5568.0、Rpeak=8921.0 GFlopsで21位にランクしている。

4) HLRS (Höchstleistungszentrum Stuttgart)
2月20日、HLRSは次期計画を発表した。新しいシステムは、日本電気のSX-6およびIA-32やIA-64のクラスタから構成される。まず、2004年3月に6台のSX-6(各8プロセッサ)を古いコンピュータ室に設置する。ピーク性能の合計は0.6 TFlopsである。2005年初頭には、今後発表されるSX-6の後継機を、新築のコンピュータ室に設置する。8 CPUのノード、64+8ノードから構成される。ピーク性能の総計は12.67 TFlopsで、主記憶は合計9.6 TBである。(HPCwire 2004/2/27) 2005年6月のTop500において、SX-8/576M72は、コア数576、Rmax=8.92 TFlops、Rpeak=9.22 TFlopsで27位にランクしている。

同センターはCray社とも連携を深め、既存のT3E-900/512を、Opteron-baseのシステムに更新したと発表した。Cray XT3ではなく、128ノード256プロセッサをMyrinetで接続したクラスタである。(HPCwire 2004/6/4) 2004年6月のTop500では、striderという愛称で、コア数250、Rmax=703.30 GFlops、Rpeak=1000.00 GFlopsで396位にランクしている。

5) CASPUR(SX-6)
イタリアの大学連合CASPUR (interuniversity Consortium for Supercomputing Applications for Universities and Research、ローマ)は、初めて日本電気SX-6(8 CPU、Rpeak=80 GFlops)を導入し、稼働した(HPCwire 2004/9/24)。CASPURは、古くはIBM 3090(1992)、Alpha cluster(1993)、APE(1996)などを設置していたが、最近はSP Power3の64ノード(2001)、128ノード(2002と2003)などを設置してきた。

アジアの動き

1) シンガポール
NUSコンピュータセンタでは、IA64を含むクラスタの拡張を行い、ピーク性能を844.84 GFlopsとした。

世界の学界の動き

1) Big Macその後
2003年11月のTop500において、1100台のG5アップルをInfinibandで接続して、Rmax=10.28 TFlopsで3位を勝ち取ったVirginia TechのいわゆるBig Macであるが、6月までにアップルのXserve G5(1ボックスに2チップ)に取り替えると言うニュースが1月頃流れてきた。設置面積は1/3になり、消費電力も減るとのことである。今度はECCも付いている。現在使われているアップルも引退後適当な住処を見つけるであろう、とニュースは伝えている。(HPCwire 2004/1/30) ずいぶんぜいたくな話である。2004年11月のTop500においては、Rmax=12.25 TFlopsで7位に入っている。

6月7日、Virginia Techは、Big Macが2003年11月のTop500において3位に入賞したことに対し、Computerworldの賞(Computerworld Honors 21st Century Achievement Award in Science)を受賞した。この賞はワシントンDCの博物館におけるブラック・タイ(準正装)イベントで授与されたとのことである。それほどの成果なのか?(HPCwire 2004/6/11)

2) FlashMob Supercomputer
Big Macの成功に便乗して、他人のふんどし(PC)でスーパーコンピュータを作るという試みが行われた。曰くFlashMob Supercomputer。ちなみに、フラッシュモブとは、インターネット上や口コミで呼びかけた不特定多数の人々が申し合わせ、雑踏の中の歩行者を装って通りすがり、公共の場に集まり前触れなく突如としてパフォーマンス(ダンスや演奏など)を行って、周囲の関心を引いたのち解散する行為だそうである。サンフランシスコ大学のPeter Pachecoは、4月3日午前8時から午後6時の間に、大学内のKoret Centerに一定の性能以上のlaptopを持って集まるよう呼びかけた。主催者側ではMyrinetとスイッチを用意し、1200から1400台が集まれば600 GFlopsは出るだろうと述べている。(HPCwire 2004/3/26)(HPCwire 2004/4/2)

HPCwireによれば、660人の参加があり、180 GFlopsまで行ったが、Top500の圏内には入れなかったとのことである。Top500の主催者の一人であるDongarra教授は、「ヘテロなクラスタでもいいが、データの再現性がない場合は認めない」と否定的だったそうである。(HPCwire 2004/4/9)

3) PSC (XT3発注、初代T3E引退)
2004年前半に、Cray社はPSC (Pittsburgh Supercomputer Center)からRed Stormに基づくスーパーコンピュータ(後のCray XT3)を受注したと発表した。NSFは$9.7Mの予算を用意している(HPCwire 2004/10/1)。約2000個のAMD Opteronを搭載している。TeraGridで導入されたLeMieuxより10倍の性能を持つ。

2004年9月30日、1996年4月にPittsburgh Supercomputer Centerに設置されたT3Eの一号機(愛称Jaromir)が引退した。1996年11月のTop500ではコア数256、Rmax=93.20 GFlops、Rpeka=153.60 GFlopsで11位tieにランクしていたが、1997年4月に512プロセッサに増強され、1997年6月のTop500では5位tieであった。(HPCwire 2004/10/15) 10月、Cray XT3の初出荷の一つが到着した (HPCwire 2004/10/29)。

4) OpenFOAM
Imperial College, LondonのHenry Wellerは1980年代後半から、より強力で柔軟な連続体シミュレーションのソフトウェアを研究しFOAMというソフトをC++で開発した。同大学の博士課程に1993年~1996年まで在学したHrvoje JasakはFOAMの誤差解析を行った。2000年にJosakはWellerとともにNabla Ltd.を作りFOAMの商品化を試みた。2004年にNable Ltd.を畳み、OpenFOAMを開発し公開するために、Henry Wellerら3名はOpenCFD Ltd.を創立した。同時にJosakはWikki Ltd.というコンサルティングのための会社を創立した。2004年12月10日にOpenFOAMの最初のリリースが出された。

その後、2011年8月8日にOpenCFD社はSGI (Silicon Graphics International)に買収され、OpenFOAMの著作権は非営利団体OpenFOAM Foundation Ltd.に移行した。

5) Grid3
多数の仮想組織が関わる大量のデータを扱う科学研究のためのグリッドを研究していたGrid2003プロジェクトは、Grid3と呼ばれる応用駆動のグリッドラボラトリを実用レベルで稼動して来た。CERNのLHC (Large Hadron Collider)に於ける二つの実験装置(ATLASとCMS)、Sloan Digital Sky Surveyプロジェクト、重力波探索実験のLIGO、FermilabのBTeV実験、分子構造解析、ゲノム解析などに使われて来た。2004年9月9日、Open Science Grid Consortiumの関係者はHarward大学でワークショップを開催し、9ヶ月の実証運転が成功裏に進んでいることを発表した。(Interactions 2004/9/9)

6) 高校生ソフトウェアコンテスト
アメリカ首都ワシントン周辺の4人の高校生は、6月から、JEF (Joint Educational Facilities) とNSCA (National Center for Supercomputer Application)が用意したプログラムに参加し、HPCの訓練を受けていたが、その成果を8月18日に発表した。使ったコンピュータはTRECC (the Technology Research, Education and Commercialization Center in DuPage County, Illinois)に設置された26ノードのクラスタである。(HPCwire 2004/8/13)

7) 10 Gbps Ethernet
WIDE Project(代表村井純)と東京大学Data Reservoirプロジェクト(代表平木敬)は、カナダ、アメリカ、オランダおよびCERNの科学者と協力して、10月18日、世界最長の10 Gbpsのイーサネット回路を作り、日本のData ReservoirプロジェクトからCERN(スイス)まで18500 kmのデータ転送に成功したと発表した。(HPCwire 2004/10/22) 2003年11月のSC03 (Phoenix)でのバンド幅チャレンジでは、24000 kmのデータ転送を行っている。

8) Turing Award 2003
4月21日(日本時間)、2003年のACM Turing賞に、Alan Curtis Kay氏(UCLA他)を選定したことがあきらかになった。受賞理由はオブジェクト指向プログラミングに関する貢献。授賞式は、2004年6月5日に米国・ニューヨークのPlaza Hotelで行なわれ、賞金10万ドルが贈られた。(Internet Watch 2004/4/21)(Internet News 2004/4/20) 2014年からはGoogleの後援により100万ドルとなる。

9) 量子テレポーテーション
英科学誌Nature の2004年6月17日号上で、欧米の2つのグループが、量子もつれ状態にある原子2個の量子テレポーテーションに成功したと発表した。オーストリアのInnsbruck大学と米国のLANLどのグループはカルシウム原子で、米国のNISTのグループはベリリウム原子で成功した。英科学誌ネイチャー6月17日号で発表する。(朝日新聞 2004/6/17)(HPCwire 2004/6/18)

10) Mersenne素数
1996年にMersenne素数を発見することを目的に設立された分散コンピューティング・プロジェクトGIMPS (Great Internet Mersenne Prime Search)は多くのMersenne素数を発見してきたが、Josh Findleyは、2.4 GHz PentiumのPCをGIMPSに提供し、5月15日、41番目のMersenne素数を発見した。値は、224,036,583 -1で、十進では700万桁以上である。GIMPSは6か月前の2003年11月17日にも40番目のMersenne素数の発見を発表していた。(HPCwire 2004/6/4)

11) Poincaré予想
Poincaréが有名な予想「単連結な3次元閉多様体は3次元球面S3に同相である」を提出したのは1904年であり、100年が経過した。ロシア科学アカデミー傘下のSteklov Institute of Mathematics (St. Petersburg)に勤務していたロシア人数学者Grigory Yakovlevich Perelmanは、2002年11月11日にPoincaré予想を証明したと主張し、プレプリントサイトarXivで論文を公開した。この論文に対する検証が世界中の数学者によって進められていたが、うまくいくのではないかという記事が1月頃出ていた。(HPCwire 2004/1/9) 実際に確認されたのは2006年で、2006年8月22日、Madridで開催された国際数学者会議でPerelmanにFields賞が授与された。しかし彼は受賞を辞退した。

12) John Pople死去
分子軌道法の理論を作ったことにより、密度汎関数法を開発したWalter Kohn (UCSB)とともに1998年ノーベル化学賞を受賞した、イギリスのSir John Anthony Pople (North Western University)は、2004年3月15日に肝臓癌のために死去した。享年78歳。1970年にはGAUSSIAN 70を開発したが、その後改良が続けられ現在でも使われている。

次回は国際会議である。筆者が組織委員長を務めたHPC Asia 2004は灼熱の大宮で開催された。

 

left-arrow   new50history-bottom   right-arrow