世界のスーパーコンピュータとそれを動かす人々


7月 14, 2025

新HPCの歩み(第241回)-2006年(g)-

小柳 義夫 (高度情報科学技術研究機構)

DOE関係ではLANLのRoadrunnerと呼ばれるPFlops級のスーパーコンピュータの提案公募があり、Cell B.E.を搭載したIBMの案が採用された。ORNLではCray XT3が増強された。SNLのRed Stormもさらに増強された。NSF関係ではTeraGridが拡大した。

アメリカ政府の動き

1) 一般教書演説(研究教育)
ブッシュ大統領は1月31日(1月最終火曜日)に恒例の一般教書演説(the State of the Union address)を行った。イラクでの戦争を継続するとか、石油依存を止めるとかのところが報道されたが、科学研究についても言及した。

大統領はAmerican Competitiveness Initiative (ACI)に言及し、グローバル経済の中でアメリカの競争力が強化されるようアメリカのイノベーションを奨励すると述べた。このためには、アメリカの子供達が数学と理科においてしっかりと基礎を学ぶことが重要である。このため研究開発や教育強化、起業奨励、技術革新などのために、2007会計年度(2006/10~2007/9)で$5.9Bを投資し、今後10年間に合計$136B以上を確保する。

2) アメリカ議会(HPCに関する公聴会)
2006年7月19日、「技術、イノベーション、競争力に関する上院小委員会」(the Senate Subcommittee on Technology, Innovation, and Competitiveness)はHPCに関する公聴会を開催した。委員長はJohn Ensign (R-NV)、野党代表はMaria Cantwell (D-WA)である。これは、2005年4月に議会を通過したthe High Performance Computing Revitalization Act (HR.28)の関連で行われたものである。(HPCwire 2006/7/28)

公述人は、

・ Dr. Simon Szykman, Director, National Coordination Office for Networking and Information Technology Research and Development
・ Dr. Irving Wladasky -Berger, Vice President, Technical Strategy and Innovation at IBM
・ Mr. Christopher Jehn, Vice President, Government Programs Cray Inc.
・ Mr. Jack Waters, Executive Vice President and CTO, Level 3 Communications Inc.
・ Dr. Joseph Lombardo, Director, National Supercomputing Center for Energy and the Environment University of Nevada, Las Vegas
・ Mr. Michael Garrett, Director, Airplane Performance Boeing Commercial Airplanes
・ Dr. Stanley Burt, Director, Advanced Biomedical Computing Center
・ Mr. Tom West, CEO, National LambdaRail

の7名。

3) Council of Competitiveness
第3回目となるHPC Users Conferenceは、“High Performance Computing: Moving Beyond Islands of Innovation”のテーマで、2006年9月7日、Washington DCのRONALD REAGAN BUILDING AND INTERNATIONAL TRADE CENTERで開催された。主催は、the Council on Competitiveness DARPAとDOE NNSA、DOE Office of Science、およびNSFである。ANLのRobert Rosner所長が基調講演を行った。(Conference Agenda)(HPCwire 2006/8/18)

4) LLNL (BlueGene/L)
LLNLは、2006年6月22日、BlueGene/Lが第一原理分子動力学シミュレーションプログラムQboxの計算において、207.3 TFlopsの性能を出したと発表した。(Phys.org 2006/6/23)(HPCwire 2006/6/25) 最初の頃、BleuGeneの関係者に「(そんな小さなメモリでは)古典MDはともかく、第一原理MDは走るのか」と聞いたら、「それは考えていない」という回答があったことを思い出した。

5) LANL(Roadrunner公募)
DARPAのHPCS計画は2 PFlopsのコンピュータを目指しているが、DOEのASC関係では、5月、LANL (Los Alamos National Laboratory)はNNSA (DOE National Nuclear Security Administration)を通して初めてのPFlops級コンピュータのRFP(提案公募)を行った。名前はRoadrunner supercomputer at LANLである。(HPCwire 2006/5/12) Roadrunner(日本名「ミチバシリ」)はニューメキシコ州の州の鳥である(州の鳥は、正確にはオオミチバシリ Greater Roadrunner)。

計画は3つのphaseからなり、初年度には$53Mの予算が付いている。今回公募された提案はphase 1に対してである。Pete Domenici上院議員(ニューメキシコ州選出、共和党、在任1973-2009)は、上院の「エネルギーおよび水資源開発使用小委員会(U.S. Senate Appropriations Subcommittee on Energy and Water Development)」の委員長である。DOE予算はこの小委員会の管轄であり、ニューメキシコ州にもってきたのは彼の政治力らしい。このASCコンピュータの主要目的は、核兵器のシミュレーションを行い、地下実験なしに設計の改良を行うことである。同時に、科学技術計算によりアメリカの競争力増強に資するものである。

9月6日、DOEのNNSAはIBMの提案を採用し、16000個のCell B.E. (Broadband Engine)とAMD社のx86プロセッサOpteron 16000コアからなるコンピュータを製作することとなったと発表した。何が対抗馬であったのかは発表されていないが、LANLで2001年頃始まったAdvanced architectures Projectでは、3次元FPGAなども検討されたようである。(Steve Pooleのスライド 2006/9

Phase 1では、今年の夏までにOpteronのクラスタを入れる。
Phase 2では、OpteronにCellを組み合わせた実証システムを作る。
Phase 3では、OpteronとCell(の改良版)からなる完全なシステムを作る。

システムの完成は2008年で、全予算は$110Mである。ピーク性能は1.6 PFlopsである。このようなヘテロな構成の大規模コンピュータを汎用目的に製作することは大きな挑戦である。(Press Box 2006/9/7)(HPCwire 2006/9/8)(New York Times 2006/9/7)(PC Watch 2006/9/12) (ascii.jp 2015/4/20)

我々もこのニュースにびっくりした。16000コアのOpteronでは3 GHzでdual issueでも192 TFlopsしかない。つまり大部分の浮動小数演算能力はCellで実現することになる。現状のゲーム用のCellでは、単精度ではチップ当たり200 GFlopsほどあるが、倍精度では14 GFlops程度でとてもPFlopsは超えない。倍精度を強化した改良版であろうと予想した。報道によると、Roadrunnerのテスト版はとりあえず現在の演算32bit版のFPUのCellを使い、実用版には64bit FPUを搭載したCell を開発するようである。プログラミングモデルについても議論している。(HPCwire 2006/9/15)

6) LANL(運営形態変更)
昨年末の決定に基づき、2007年10月1日より、California大学とBechtel Corp.が主導するLos Alamos National Security, LLCが管理を開始した。従来の1万人を越える従業員の95%は再雇用された。今後、California大学の規則に縛られることはなく、California大学理事会に報告する義務もない。(Wikipedia: Los Alamos National Laboratory)

7) ORNL(Jaguar)
2006年6月17日、Cray社は、ORNL (Oak Ridge National Laboratory)にPFlops級のスーパーコンピュータを導入する契約を締結したと発表した。前に書いたとおり、6月16日、JSPSワシントンセンター主催の”Science in Japan” Forumが開かれたが、午前中のmoderatorをやっていたThomas Zacharia (ORNL) が「すごいのが入るぞ」と言っていたがこのことらしい。システムとサービスを合わせて$200Mの契約で、複数年にわたる。既設のCray XT3をリプレースする。

今年はOpteronをdual-coreに換えて25 TFlopsのピーク性能とする。2006年後半には100 TFlopsに、2007年後半には250 TFlopsとする予定。2008年後半には次世代のCrayスーパーコンピュータ(コード名Baker)を設置しPFlopsを狙う。これらすべてはAMDのOpteronを用いる。ただし、ピーク性能より実際の応用での性能を目的にしている。

ORNLのコンピュータ科学・計算科学担当副所長であるThomas Zachariaはこう述べている。「このシステムがPFlopsのピーク性能を持つようになることは事実である。しかし、このシステムの仕様には、実アプリケーションやベンチマークでの性能予測だけでなく、メモリ、メモリバンド幅、相互接続網やI/Oバンド幅、ストレージなどに関する重要な指標も含まれている。それにより非常にバランスのとれたコンピュータになっている。このシステムに限らず、単にPFlopsだけを言うのは、システムの能力を正しく言い表していない。」

Cray社のCEO兼社長のPeter Ungaroはこう述べた。「疑いもなくCrayにとって偉大な日だ。Crayのスーパーコンピュータは1989年に最初に1 GFlopsの実効性能を実現した。また1998年には初めてTFlopsの壁を破った。今やORNLとCrayはPFlopsの壁をともに破ろうとしているのみならず、Crayの適合型スーパーコンピューティングのビジョンを実現するためにも力を合わせている。」(HPCwire 6月17日号)(HPCwire 2006/6/17)(HPCwire 2006/6/23) 何をもって実効性能とするかによるが、1985年(b)に書いたように、日本電気のSX-2は1987年、LivermoreベンチマークのLoop 7で1042.3 MFlopsを記録している。UngaroはY-MPのことを言っているのであろう。『Crayスーパーコンピューターの歴史』には「Cray Y-MPは、世界初の1ギガFlopsを超えたスーパーコンピューターです。」と書かれている。

 
   

2006年9月1日、ORNLの増強されたCray XT3スーパーコンピュータは、Jaguarと名付けられ54 TFlopsのピーク性能に達したことが発表された(HPCwire 2006/9/1)。2006年11月のTop500では、Rmax=43.48 TFlops、Rpeak=54.2048 TFlopsで10位であった。

8) SNL(Red Storm更新、ASCI Red引退)
SNL (Sandia National Laboratory)のRed Stormは更新が進み、Opteron dual-core 2C 2.4 GHzを13272チップで、Rmax=101.4 TFlops、Rpeak=127.411 TFlopsで2位となった。

1996年12月に初めてTFlopsの壁を越え、1997年6月のTop500でCP-PACSに代わって1位を取ったASCIの最初のスーパーコンピュータASCI Redは2006年6月29日をもって、ついにシャットダウンとなった。ASCI Redは、最初はピーク性能1.6 TFlopsであったが(正確にいうと、初出では1453 GFlops、2回目から1830 GFlops)、チップの取り替えなど更新を続け、1997年6月から2000年6月まで連続7回トップを占めた。最後は3.2 TFlopsであった。Top500に現れた最終は2005年11月の276位であった。プロセッサやメモリまで(つまりボードごと)差し替えたとは言え、Top500に18回登場するのは、日本のNWT(数値風洞)とタイの記録である。しかも1位を合計7回も取っている(NWTは4回)。(HPCwire 2006/6/30、婦人用の帽子の形をした送別ケーキ(Adios ASCI Red)の写真は同記事より)

9) NERSC(Bassi、Franklin、Horst Simon所長辞意)
NERSC (National Energy Research Scientific Computing Center、LBNL内)は、2006年1月9日、888プロセッサから構成されるBassiの運用を始めたと発表した。Bassiの名前は18世紀のイタリアの物理学者Laura Bassi(1711-1778)を記念したものである。Wikipediaによると、「ヨーロッパの大学で初めて教授となった女性」で、「ボローニャで法律家の娘に生まれ、1732年にボローニャ大学の解剖学の教授に任命された。1738年に結婚し8人の子供を生んだが、ニュートン力学に関心を持ち、自宅で講義を開いていたが、1776年に65歳で物理学の教授に復帰した。」とあり、すごい女性である。1745年にバチカン科学アカデミーの最初の女性会員となっている。

BassiはPOWER5 (1.9 GHz)に基づくp576システムで、ノードは8プロセッサからなり、32 GBの共有メモリを持つ。Top500には2005年11月から登場し、ノード数976、Rmax=6.41513 TFlops、Rpeak=7.4176 TFlopsとなっている。(HPCwire 2005/1/13)

2006年8月10日、NERSCとDOE Office of Scienceは、次期システムとしてCrayと契約したと発表した。前世紀のT3Eを別にすれば、これまでの主力マシンはIBM SP Power3 (375 MHz, 16 way, Rmax=6.656 TFlops)のSeaborgや前述のBassiで、IBMが担っていた。Cray社との契約は複数年にわたり、$52Mである。導入予定のシステムはコード名Hoodであり、19000コアのOpteron dual-core (2.6 GHz)からなるシステムで、今年後半に設置を開始し、2007年前半には全システムを設置する予定。 (HPCwire 2006/8/10)(HPCwire 2006/8/18)(ECMWFでのCrayの講演スライド) 世界一流の科学者の名前を付けるというNERSCの伝統により、このマシンはFranklinと命名された。ちなみにMount Hoodはオレゴン州の火山(2349 m、州内最高峰)の名前である。独立峰で日系人からはオレゴン富士とも呼ばれる。

実際には2007年にdual-coreのFranklin (XT4、Rmax=85.368 TFlops)が導入され、2008年にquad-coreに取り替えてRmax=266.3 TFlopsとなった。

NERSC所長のHorst Simonはこう述べている。「スーパーコンピュータの理論ピーク性能は、自慢するにはいいが、実際の研究用のプログラムを走らせたときどんな性能を出すかを正確に示すものではない。このシステムが2500人のユーザの要求にどう応えるかを調べるため、NERSCではSSP (Sustained System Performance)という指標を開発した。このテストによれば、新しいステムは16 TFlops以上の実効性能を実現する。」

Cray社のCEO兼社長のPeter Ungaroはこう述べている。「NERSCが大規模Crayスーパーコンピュータのホームに復帰したことに興奮している。単純なピーク性能ではなく、実アプリに基づくチャレンジングで厳しい競争となった評価プロセスを経てNERSCがわれわれを選んだことは大きな誇りである。Crayの提供する適合的スーパーコンピューティングにより、多くのHPCセンターがCray社のマシンを導入している。NERSCもその一員となったことは大変喜ばしい。」

2006年11月、Horst Simonは後任者が決まり次第、NERSC所長の職を辞すと発表した。かれは1996年初めから所長を務めていた。かれはLBNL内で他に2つの重要な職務、「コンピュータ科学担当副所長」および「計算科学研究部門部門長」を兼務しており、そちらに力を注ぎたいとのことである。(HPCwire 2006/12/15) 2007年10月29日、UC Berkeleyのコンピュータ科学教授のKatherine (Kathy) Anne Yelick(線形計算のJames Demmel教授夫人)がNERSCの新所長に指名される。着任は2008年1月(2012年まで)。

10) INCITE(課題採択)
2006年6月、DOE, Office of Scienceは大規模科学計算のための資源提供プログラムINCITEについて、2007年度、15チームに1800万ノード時間を提供すると発表した。公表されたテーマは以下の通り。(HPCwire 2006/2/3)

- より効率的な航空機およびエンジンの設計
- パーキンソン病の分子基礎に関する研究
- 将来のエネルギー源として核融合を進めることを支援するシミュレーション
- 気候変化に影響する人間および生態的プロセスのより一層の理解
- 細胞破壊が疾病や感染が起こることをどのようにして可能にするかに関する研究のシミュレーション
- より強い先端材料の開発および材料特性についてのよりよい理解
- 広範囲の科学的な問題を研究するために使用できる分子衝突の改善されたシミュレーション
- コンピュータ可視化およびアニメーションを進歩させる計算ツールの開発
- 水についてのより一層の理解また光はどのように生物系で水に影響するかについての理解
- 原子レベルでタンパク質構造の計算
- 我々の宇宙の9/10 以上を構成していると考えられる暗黒エネルギーや暗黒物質についてのさらなる理解
- 科学研究で使用される粒子加速器のシミュレーション

INCITEは3年目であるが、the Council on Competitivenessの勧告に基づき、今回から初めて民間からの提案を4件採択した。ボーイング社、ドリームワークスアニメーション社、ゼネラルアトミック社およびプラット・ホイットニー社である。(HPCwire 2006/8/25

2007年のINCITE提案の締め切りは9月15日である。12月に採択結果が公表される。(DOE Office of Science)

11) SciDAC(さらに5年延長)
2001年度予算の中で、DOE, Office of Scienceは公募制の資源提供プログラムSciDAC (Scientific Discovery through Advanced Computing)を当初5年計画で開始した。テラスケールからペタスケールに発展するなかで、SciDACは2006年にさらに5年延長された。

2006年9月、DOEは、今後3年ないし5年の間に$60M相当の資源を30件の計算科学プロジェクトに提供すると発表された。採択されたプロジェクトの一覧によれば、年次が分からないが、ORNLは5件、PNNLは1件、Rice大学は3件などが採択されたと報道されていた。(HPCwire 2006/9/8)

SciDACには、Wes Bethel(LBNL可視化グループ長)とChris Johnson(Utah大学科学計算研究所所長)が提案していたVACET (Visualization and Analytics Center for Enabling Technologies) プロジェクトも採択された。TampaでのSC06のLBNLブースで発表する予定。今年のSC06では、初めてAnalysisが会議のタイトルに付加されたところである。(HPCwire 2006/11/3)

12) NSF(2006年度予算)
NSFは2006会計年度(2005年10月~2006年9月)の予算として、$5.605Bの予算を連邦議会に請求した。(FY 2006 Budget Request to Congress) 2006年1月12日、$5.58Bの予算が承認された。少し削られたが、2005年度より$100.4Mの増額である。(Fiscal Year 2006 Appropriation)

13) NSF(TeraGrid)
2006年8月、NSF (National Science Foundation)は、NCSA, SDSC, ANLおよびCACR (Caltech)の4機関に$53Mを投じ、分散的テラスケール環境DTF (Distributed Terascale Facility、通称TeraGrid)を構築し、40 Gb/sの光ネットワークで結合すると発表した。

2001年にTeraGridが開始してから、資源提供機関として加わっているのは以下の10センターである。(Wikipediaなどでは、CACRを資源提供機関に含めていない。可視化やデータに重点を置いている。)

2001/8

NCSA (U. of Illinois at Urbana Champaign), SDSC (San Diego Supercomputer Center),ANL (Argonne National Lab.) CACR (Caltech)

2002/10

PSC

2003/10

ORNL, Purdue U., Indiana U., TACC (Texas Advanced Computing Center)

2006/6

NCAR

 

Gridとしての調整は、Charlie Catlettを長とするU. of ChicagoのDIG (Grid Infrastructure Group)が担当している。2007年にはTennessee大学Knoxville校と、Louisiana州立大学のLONIが更に加わる。

NSFは2005年9月27日、「科学技術のための、ペタスケール計算環境に向けての」 HPC System Acquisitionを発表し、提案を公募していたが、採用結果が明らかになった。2006年10月、NSFはテキサス大学オースチン校にあるTACC (the Texas Advanced Computing Center)に、スーパーコンピュータを購入し、運用するため5年間に$59Mの予算を付けたと発表した。テキサス大学は、Sun Microsystems、Arizona州立大学、Cornell大学のCornell Theory Centerと共同して提案した計画が採択されたとのことである。(HPCwire 2006/9/29)(HPCwire 2006/10/9)

NSFは2006年6月5日、「科学技術のための、ペタスケール計算環境に向けての」Leadership-Class System Acquisitionを発表し、提案を公募した。2006年9月8日までに準備提案(Preliminary Proposal)を提出し、2007年2月2日を締め切りにFull Proposalを提出するとのことである。このプログラムでは、世界トップクラスのHPCシステムを導入して運用し、アメリカのアカデミアに巨大な計算量(capacity)と計算性能(capability)を提供する。2007年になって公表されたところでは、NSFは

Track 1: A Leadership-Class System  
Track 2: Mid-Range High-Performance Computing Towards the Petascale

から構成される設置計画をたて、テキサス大学のシステムはTrack 2の一つということである。

運用開始は2007年6月1日の予定で、2007年10月には最終構成のシステムとなる。最終構成では、400 TFlopsを超えるピーク性能と100 TBのメモリ、1.7 PBのディスクを持つ。システムはSun Fire x64 (x86, 64-bit)サーバを多数結合したもので、AMDのqud-coreプロセッサを13000個搭載する。筆者はこれを聞いて東工大のTSUBAMEの上位機かと思った。ただし、アクセラレータは含まれていない。MSFとの契約により、計算時間の5%は産業利用に使われる。また別の5%はテキサス州内の教育研究機関に割り当てられる。後にRangerと名付けられた(Texasなので)。Rangerは2008年6月のTop500において、コア数62976、Rmax=326.00 TFlops、Rpeak=503.81 TFlopsで、5位にランクしている。

2005年に導入されたPSC (Pittsburgh Supercomputing Cener)のCray XT3(愛称Bigben)は、2006年末、AMD Opteron 2.4 GHzの2060コアから、2.6 GHzのdual core Opteron(4136コア)にアップグレードされた。2007年6月のTop500では、Rmax=17.00 TFlops、Rpeak=21.51 TFlopsで46位にランクしている。2010年まで稼働する。

14) NCAR(TeraGrid、blueice)
2006年6月に、NCAR (The National Center for Atmospheric Research、アメリカ大気研究センター)がTeraGridに加わることが発表された。NCARは計算資源だけでなく、膨大な気象データも提供する。NCARは、国土交通省傘下にある日本の気象研究所とは違い、NSFから資金を得て、非営利団体UCAR (University Corporation for Atmospheric Research)が運営している。(HPCwire 2006/6/16)

2006年11月3日、NCARはICESS(Integrated Computing Environment for Scientific Simulation)の第1段階に、IBMのPOWER5+ (1.9 GHz)を搭載したスーパーコンピュータblueiceを採用したと発表した。IBMのblueiceはSMPノードのSystem P5でノード数は575。メモリは4 TB。稼働は2007年2月の予定。2006年11月のTop500に登場し、1696コア、Rmax=10.6 TFlops、Rpeak=12.8896 TFlopsで55位にランクされている。2007年6月からはRmax=11.08 TFlops。2008年6月の第2段階ではPOWER6+プロセッサを搭載する見通し。(ITmedia 2006/11/4)(HPCwire 2006/11/10)

15) NCSA (Lincoln)
2006年5月、NCSA (National Center for Supercomputing Applications, University of Illinois at Urbana-Champaign)は、450台のDell PowerEdge 1855ブレードサーバ(3.2 GHz)をInfiniBandで結合したクラスタを設置中であると発表した。このクラスタはLincolnと名付けられ、キャンパスや州の戦略的プロジェクトのために設置され、私企業の共同研究者が使用する。2006年6月のTop500において、コア数900、Rmax=4.11 TFlops、Rpeak=5.76 TFlopsで129位にランクしている。その後増強され、2006年11月のTop500では、コア数2048、Rmax=16.50 TFlops、Rpeak=21.30 TFlopsで27位にランクしている。周波数は2.66 GHzとなっているが、Lincolnである。ちなみに、University of Illinois at Urbana-Champaignは、2021年からは“at”を省く。

16) Rensselaer Polytechnic Institute (Blue Gene)

2006年5月、ニューヨーク州TroyのRensselaer Polytechnic Instituteは、16ラック(16384ノード)のBlue Geneを年末に設置すると発表した。総予算は$100Mで、ニューヨーク州とIBM社がそれぞれ$33M拠出する。学内のComputational Center for Nanotechnology Innovations (CCNI) に設置される。(The New York Times 2006/5/11) 2007年6月のTop500では、コア数32768、Rmax=73.03、Rpeak=91.75で7位にランクしている。大学環境では最大のBlueGene/Lである。

17) TACC (Lonestar更新)
TACC(Texas Advanced Computer Center, University of Texas at Austin)は、2003年にLinstarを導入して以来更新を続けて来たが、2006年7月、新しいLinestarが導入し、10月1日から正式稼働した。これは、のXeon 5150 2C 2.67 GHzを搭載した」Dell社のPoweredge 1955を2600基Infinibandで相互接続したマシンである。(UT News 2006/7/20) 2006年11月のTop500では、コアss5200、Rmax=41.46 TFlops、Rpeak=55.47 TFlopsで12位にランクしている。(Wikipedia: Texas Advanced Computing Center)

これより前であるが、Lonestar2を設置した。これは、Xeon EM64T 3.2 GHzを搭載したDell社のPoweredge 1855を1300基、Infinbandで接続したマシンで、2006年6月のTop500では、Rmax=6.99 TFlops、Rpeak=8.32 TFlopsで65位にランクしている。どういうわけか11月のリストでは姿を消している。

また上記のようにTeraGrid予算で、後にRangerと名付けられる400 TFlops級のマシンの設置が決まった。

18) DARPA (HPCS Phase II、HPCS Phase III)
2002年6月から始まったDARPA (Defense Advanced Research Projects Agency)のHPCS (High Productivity Computing Systems プロジェクトは、国家安全保障と産業業界のための、経済的で生産性の高い次世代コンピューティングシステムの開発を目指すプログラムである。このプログラムは、日本電気の「地球シミュレータ」が世界最強のコンピュータとなり、米国がスーパーコンピューティングの分野における技術的な優位性を失うのではないかと危惧された時代に発足した。2003年のPhase IIではIBM、Cray、Sun Microsystemsの3社(とMIT Lincoln Laboratory)に絞られていた。近々Phase IIIに入り、1社または2社に絞られる。(HPCwire 2006/4/7)

Cray社は、Cascadeと呼ばれるシステムを開発していた。これはヘテロなプロセッサ・アーキテクチャを使い、Crayの適合型計算モデルを軸に設計する。(HPCwire 2006/4/7)

IBM社はPOWERプロセッサに基づくPERCS (Productive, Easy-to-Use, Reliable Computing System)と呼ぶアーキテクチャを開発している。最初の成果は2007年前半にも公表し、2011年中頃にはPFlopsレベルのシステムが登場する。(HPCwire 2006/4/7)

Sun Microsystems社は、シリコン光結合や、チップ同士が配線を使わずに直接信号をやりとりする接触通信(Proximity Communication)技術などの革新的な技術をHeroと呼ばれるシステムに統合する予定である。高いバンド幅、低いレイテンシ、高レベルの耐故障性、統合されたツール群などによりユーザを支援する。(HPCwire 2006/4/7)

最終的に2社を選択するが、落ちるのはどこか、Sunか? 5月5 日、例のHigh-End Crusaderという匿名のコメンテータが、HPCwireに長い記事を書き、日本のヘテロな10 PFのシステムはとても実現するとは思えないが、HPCSはちゃんとできる、と論じた。(HPCwire 2006/5/5)ただし、この時点で日本ではすでに絞り込みが行われていた。

このころ、HPC言語の重要性が強調されていた。HPC ChallengeのClass 2は、この動きの中から企画されたものと思われる。(HPCwire 2006/8/25) (HPCwire 2006/8/25)

Phase IIIの最終2社は、SC06で発表されるかと思われたが、その次の週、感謝祭休暇で皆いなくなった頃に発表された。当初の予定より5ヶ月遅れている。米国時間11月21日、DARPAはHPCS Phase IIIに参加する企業として米Cray社と米IBM社の2社を選んだと発表した。案の定Sun Microsystems社は落ちた。4年間の研究資金として、Cray社には$250M、IBM社には$244Mを支給する。両社には、政府資金の1/3以上の自己資金投資が要求されている。(HPCwire 2006/11/24)(ITpro 2006/11/24)(ITmedia 2006/11/24)(CNET Japan 2006/11/22) この政府資金は、IBMにとっては弁当代(lunch moneyお小遣い)みたいなもんだが、Crayにとっては一財産だ、という指摘もあった。(HPCwire 2006/12/15)

HPCSはピーク4 PFlops、実効2 PFlopsのスーパーコンピュータの開発を目標とし、ソフトウェア・ツールやプログラミング環境の開発にも取り組む。また、演算速度1 PFlops以上の試作機を2010年12月までに完成させるよう求めている。この計画はその後加速され、2010年末に、10 PFlopsのプロトタイプ開発に変更された。まさに、日本の次世代スーパーコンピュータ計画と衝突しそうである。

19) MHPCC(Dell PowerEdge)
アメリカ空軍の研究機関であるMHPCC (The Maui High Performance Computing Center)は、ハワイ大学が運営を委託されているが、これまでIBM SP2やPower3やp690などIBM機が主力であった。2006年8月、Dell社のスーパーコンピュータを導入する契約を結んだと発表した。これは5120プロセッサのDell PowerEdge 1955システムで、プロセッサはIntelのdual-core Woodcrest (3 GHz)で、4コアのノード1280個から構成されている。相互接続はInfiniBandである。ピーク性のは60 TFlopsである。(HPCwire 2006/8/11)

2006年11月のTop500では、Jawsと名付けられ、コア数5200、Rmax=42.39 TFlops、Rpeak=62.4 TFlopsで11位にランクしている。

次回は、ヨーロッパの政府関係の動き、中国の動き、世界の学界、および国際会議(その一)である。

left-arrow   new50history-bottom   right-arrow