世界のスーパーコンピュータとそれを動かす人々


7月 2, 2018

HPCの歩み50年(第168回)-2009年(h)-

小柳 義夫 (高度情報科学技術研究機構)

就任したObama大統領は米国科学アカデミーの年次総会で演説し、研究開発、とくに基礎研究への投資が重要であると指摘し、アメリカの研究開発投資をGDPの3%まで上げると約束した。基礎研究など無駄だと仕分けしてしまうどこかの国とは大違いである。

日本の企業の動き

1) 富士通
次世代スーパーコンピュータ開発のところに書いたように、富士通は2009年3月2日、次世代スーパーコンピュータのスカラ部のために開発したSPARC64 VIIIfx (コード名Venus)の論理仕様書を発表した。チップ間のキャッシュ・コヒーレンス機構がないのでサーバとして使い物にならないとの批判が業界紙に出ていたが、HPC専用なのでその批判は当たらない。もちろん、Intelなどのように、サーバとしてもHPCとしても使えるプロセッサで量産効果を狙うというビジネスモデルも考えられる。

2009年4月30日、富士通はLSIの生産について、台湾積体電路製造(TSMC)との協力に合意したことを各紙が報じた。半導体の性能向上に伴い重くなる一方の投資負担を軽減する狙いとのことである。富士通マイクロエレクトロニクス(FML)とTSMCは合意に基づき、FMLはTSMCに40 nmプロセス世代のロジックICの製造を委託することとなる。さらに28 nmプロセス世代以降のプロセス技術の共同開発に向けた協議を進めていくとしている。「京」のプロセッサは国内での製造であるが、2011年に発表された「京」コンピュータの商用版であるPRIMEHPC FX10のプロセッサSPARC64IXfxは、TSMCの40 nmプロセスで製造された。

日本政府の動きのところに書いたように、富士通は原子力研究機構から3つの異なる用途のシステムからなるピーク合計214 TFlopsの日本最高速のスーパーコンピュータを受注したと発表した。

2) 日本電気
2009年9月2日、NEC・NVIDIA GPGPUセミナーがNEC本社ビル地下1階多目的ホールで開催された。プログラムは以下の通り。

13:10 3.5世代PCクラスター:GPUスーパーコンピューティング ~大衆製品の専用化と一般化の波~ 姫野龍太郎、理研情報基盤センター
14:00 GPU スパコンの今後の展開: TSUBAME 2.0 青木尊之、東京工業大学
14:40 コーヒーブレーク  
15:00 NVIDIA GPU対応PGIアクセラレータコンパイラの紹介 西克也、ベストシステムズ㈱
15:30 超並列マルチコアGPUによるコンピューテーション 馬路徹、NVIDIA
16:00 PGI FortranコンパイラによるGPGPU上のアプリケーションの性能向上事例 加藤季広、日本電気
16:30 NECが提供するGPGPUソリューションのご紹介 日本電気

 

3) 日立
日立製作所は同社のサーバ仮想化技術「Virtage(バタージュ)」上で他社サーバ仮想化ソフトウェアを動作させる技術を開発し、2009年7月22~23日に同社が開催する「日立nVALUEコンベンション 2009」で紹介した。

今回日立が開発したのは、Virtageで設定した論理区画にHyper-Vなどのハイパーバイザを導入し、この上で仮想マシンを安定的に稼働する技術。これにより、クラウド事業者などが、例えばVirtageのCPU占有モードを用いて設定した論理区画を各顧客に割り当て、1社ごとのリソースを確保するとともに、この論理区画上で稼働する他社ハイパーバイザによって可搬性やリソース割り当ての柔軟性を実現することが可能になる。神奈川県秦野市のエンタープライズサーバ事業部では、BladeSymphony BS2000をVirtageで3つの論理区画(LPAR)に分割、このうちCPU占有モードに設定した1つの論理区画でHyper-Vを稼働し、この上でWindows Server 2003とWindows Server 2008の仮想マシンを動作、さらに残りの2つの論理区画を用い、Windows Server 2008とRed Hat Enterprise Linux 5をそれぞれ動かすデモを実施した。

HAS研(HITACHIアカデミックシステム研究会)は、2009年3月6日、マクセル東京ビルにおいて第24回研究会(テーマ「グリーンITの展望と課題」)および平成20年度総会を行った。プログラムは以下の通り。

13:30 安達 淳(国立情報学研究所) 開会挨拶(会長)
13:40 亀尾 和弘(日立) 「低炭素社会を目指すグリーンIT」
14:40 古谷野 宏一(日立) 「空調環境コンサルティングAirAssistと日立モジュール型データセンタ(HMDC)」
16:00 林 剛久(アラクサラネットワークス) 「 ネットワークのグリーン化の新しい流れとアラクサラネットワークスにおける取組み 」
17:00 平成20年度総会  
17:20 全 炳東(千葉大学) 閉会挨拶(副会長)
17:30 懇親会  

 

日立ITユーザ会は、2009年8月27日、秋葉原UDXビルにおいて、「渋滞学」をテーマに第32回科学技術分科会オープンセミナーを開催した。プログラムは以下の通り。

14:00 西成 活裕(東京大学) 「自己駆動粒子系の渋滞学」
15:45 山下 倫央(産総研) 「高速人流シミュレータを用いた避難誘導計画の立案支援」

 

HAS研は、2009年9月15日に秋葉原AKSビルにおいて第25回研究会を開催した。プログラムは以下の通り。

13:30 安達 淳(国立情報学研究) 開会挨拶(会長)
13:10 山下 了(東京大学) 「 素粒子物理学と大型加速器 」
14:10 星野 忠次(千葉大学) 「 創薬における計算技術の活用 」
15:30 有澤 博(横浜国立大学) 「『PET-CT画像を用いたがん自動診断システム』の研究開発と事業化 」
16:30 中西 潤(日立) 「 安全・安心・便利な社会を支える指静脈認証サービスのご紹介 」
17:30 全 炳東(千葉大学) 閉会挨拶(副会長)
18:00 意見交換会  

 

4) 日本サンマイクロシステムズ
日本サンマイクロシステム社は、2009年9月18日にベルサール八重洲でSun Government & Education Conference 2009を開催した。Sunのクラウド戦略が述べられ、製品導入事例や製品紹介がなされた。

アメリカ政府の動き

1) Obama政権
2008年11月にアメリカ大統領に選出されたBarack F. Obamaは、2009年1月20日に大統領に就任した。Obama大統領はこれまでのBush大統領の8年間とは異なり、科学技術への投資を重視すると発表した。4月27日、大統領は米国科学アカデミーの年次総会で演説し、研究開発、とくに基礎研究への投資が重要であると指摘した。「物理学、化学、生物学における特定の研究は、一年では元が取れないことも多く、十年でも取れないこと、ずっと取れないことも多くあります。しかし、ひとたび成果が得られると、それは費用を出した人にも、出さなかった人にも、等しく共有されるものとなります。それが、私企業が一般に基礎研究にあまり投資しない理由です。でも、リスクが大きいからこそ報償も大きいのです。」

Obama大統領はアメリカの研究開発投資をGDPの3%まで上げると約束した。これは従来予算に$70B(約7兆円)追加することになる。もちろん支出増のパーセントでいうなら、イスラエル、スエーデン、フィンランド、日本、韓国はアメリカを超えている。でも、研究開発投資の絶対額では世界一である。世界の研究開発総額(2007年で$962B)の1/3はアメリカである。

2) WTEC Report
The World Technology Evaluation Center (WTEC)が報告書“INTERNATIONAL ASSESSMENT OF RESEARCH AND DEVELOPMENT IN SIMULATION-BASED ENGINEERING AND SCIENCE”を出し、アメリカのシミュレーション技術が、ドイツ・日本・中国より後れつつあると述べている。日本の例としてトヨタを挙げているので、民間セクターの話のようである。WTECは民間の非営利団体であるが、NSF, DOE, AFOSR, and DTRの依頼で行われた。426ページにも及ぶ長文のレポートであるが、第5章「次世代のアーキテクチャとアルゴリズム」、第6章「ソフトウェア開発」はエクサスケールの観点から注目される。

WTECには2004年に地球シミュレータについての調査インタビューを受けたことがある。報告書も出ている。

3) LLNL
IBMとNNSA (US National Nuclear Security Administration)は、2009年2月3日、LLNL (Lawrence Livermore National Laboratory)が2011年前半に”Sequoia”と呼ばれる20 PFlopsのBlue Gene/Qを、核兵器の老朽化をコンピュータでサポートするために設置すると発表した。Sequoiaはアメリカ西海岸にみられる世界有数の大高木である。ASCプログラム下の核兵器シミュレーションは、ASC PurpleやBleuGene/Lを用いてきたが、今後はSequoiaのためにコードを書き換える。日本の次世代スーパーコンピュータは、Blue WatersとSequoiaの挟み撃ちか!!

98,304 nodes で total of 1.6 million cores ということなので、16コアのノードと推定される。これが1個のチップに収まるのか、2個もしくは4個のチップで構成されるのかは公表されていない(結果的には1チップであった)。メモリはノード当たり16 GBのようである。ノードレベルのキャッシュ・コヒーレンシを保ち、ノード内はSMP、ノード間はMPIのハイブリッド並列となる。各ノードのメモリは16 GB。

4) ESnet
ESnet (the Energy Sciences Network)は、1986年にHEPnetとMSFnetとを統合して始まった高速ネットワークで、DOEの研究者とその協力研究者とを結ぶ。運営はLBNLにあるNERSCが行っている。2005年3月には、ESnetのバックボーンとしてNLR (National LambdaRail)を採用するというニュースがあったがその後どうなったかは知らない。

ESnetは米国時間2009年8月10日、$62Mの資金を受けたと発表した。LBNLの研究者らは、Advanced Networking Initiativeと呼ばれる、高速ネットワークの研究に着手するとともに、同研究所にネットワークおよびソフトウェアエンジニアを新たに採用するために、資金の一部を投入する。資金の大部分は、100 Gbps技術をサポートするために必要となるインフラを有すると判断したプロバイダから、ネットワーク機器やサービスを購入するために使用される予定である。協力するベンダの社名は公表されていないが、Juniper Networksは2009年6月、業界初の100Gbpsイーサネット対応ルータインターフェースカードを発表している。

この資金は、Lehmanショック後の世界的な景気後退における米国経済の回復を目的として、Obama政権によって施行された経済刺激政策である米国再生・再投資法の下に割り当てられている。日本で言えば、景気浮揚のための補正予算のようなものであろう。

DOEの高度科学計算研究部門を率いるMichael Strayer氏によると、DOEのビジョンは、1 Tbpsの速度のネットワークを開発することであるという。

5) NCSA
2009年12月7日付けのCNETニュースで、POWER7とそれを用いたIllinois大学NCSA (the National Center for Supercomputing Applications)のBlue Watersについての解説(宣伝)が載っている。有名な「2001年宇宙の旅」に出て来るHAL9000スーパーコンピュータ(というか人工知能)は、Illinois州のUrbanaに設置された。HALはIBMを1文字ずらしたものであることから分かるように、最初IBMが支援していたが、人工知能が人間を殺そうとするというストーリーと分かって手を引いたそうである。これはフィクションだが、今度は本当のスーパーコンピュータがIllinois大学のUrbana-Champaignキャンパスに建築中の芸術的な建物に設置される。

POWER7が正式に発表されるのは2010年2月8日(米国時間)なので、この時点では非公式であるが、Roadrunnerで使われたCellチップの技術を受け継ぎ、前身のPOWER6に比べて、コアが最大8コア、コア当たり最大4スレッドが走り、クロックも3~4 GHzまで行くと述べている。ピーク性能は10 PFlopsに達し、世界最速である。POWER7はout-of-order実行に戻った。プロセッサは水冷である。DARPAもPOWER7を使ったPERCSを進めており、そこから貴重なノウハウを得ている。ピークは10 PFlopsであるが、現実のアプリでの実効スピードは1 PFlopsを予定している。Top500はメモリバンド幅が少なくても高い値が出るので、現実の性能を反映してない。Blue Watersでは任意の2ノード間の通信バンド幅は192 GB/sである。POWER7は2010年前半にサーバ商品にも登場する。

6) SDSC
TeraGridを引っ張って来たFrancine Bermanは、2001年からSDSC (San Diego Supercomputer Center、1985創設)の所長を務めてきたが、NSFのTrack 2に応募していたのに落選するなど、彼女の指導力を危ぶむ声もあった。2009年4月6日に、氏が8月1日付けで辞任し、The Rensselaer Polytechnic Institute(レンセラー工科大学)の研究担当副学長に就くとの発表があった。2012年からはthe Edward P. Hamilton Distinguished Professor in Computer Science at Rensselaer Polytechnic Instituteに就いた。

SDSC所長の後任はProf. Michael L. Norman (Physics, UCSD)で、1年間の所長代行の後、2010年9月から所長に任命された。

7) Keeneland Project
2008年秋にNSFのOffice of Cyber InfrastructureはTrack 2Dの公募を行った。4つのカテゴリーがあるが、その一つに「革新的な(innovative)実験的HPCシステム」があり、期間は5年、総額は$12Mとのことであった。これにJeffrey Vetter教授(Georgia工科大学)を中心に、NICS (National Institute of Computational Sciences), ORNL, Tennessee大学、さらにNVIDIA社とHewlett-Packard社が協力してKeeneland Projectとして応募し採択された。2010年、第1期のシステムKIDS (Keeneland Initial Deliversy System)を導入する。これは120ノードのHP SL390システムで、240個のIntel Xeonと360個のNVIDIA Fermi GPUを含み、ピーク201 TFlopsである。相互接続はInfiniBand QDRである。

標準化

1) OGF25
第25回Open Grid Forum – OGF25/EGEE User Forumは、2009年3月2日~6日に、イタリアのシチリア島の南東のCataniaで開催された。筆者も出席したが、シチリア島は初めてで感激した。ローマ経由でCataniaの空港に着いたとき荷物が出てこなかったが、どうせそんなことだろうと思っていたので、1泊分の下着はショルダーバッグに入れておいた。翌日ホテルに荷物が到着していた。

OGFの話題もだいぶ変わり、今回はクラウドが話題になっていた。グリッドよりは中央集権的な概念で、標準化という点では後退した感じである。某氏曰く、

 「(グリッド) - (インターオペラビリティ) + (中央集権) = (クラウド)」

これでは昔のメインフレームの亡霊と思ったが、スケーラビリティをバックエンドで工面してくれれば、クライアントから見れば同じと言えよう。そもそも、OGFはインターオペラビリティを語る場だと思っていたのだが、だんだんずれてきている。

OGF25の参加者は約600名であり、ここ数年のOGF/GGFでは非常に大きな参加者を集めた。その大きな理由は、欧州のグリッドプロジェクトであるEGEEのユーザフォーラムと併設されたことである。しかし、参加者の中で、従来からOGFの標準化活動に参加しているものは多くなく、標準化に関わるセッションは盛況とまでは行かなかった。日本で作成したグリッドシステムガイドラインの英訳ドラフトを、前回のOGF24の後、Enterprise Grid Requirement-Research Group (EGR-RG)でのInformationalドキュメントとして投稿してあった。その後パブリックコメントの時期を経て、2009年2月4日には公式なドキュメントとして公開された。

OGF25のEGR-RGのセッションでは、約10名が参加した。伊藤智がこれまでの経緯、パブリックコメントで出た意見、ドキュメントで記載している要件の概要を説明し、今後の活動について参加者と議論を行った。ドキュメントに記載されている要件には、ネットワークやストレージに関わるグリッドシステムからの要件が少ないとの意見が出された。今後のアプローチの方法として、OGFのEnterprise Functionの他のグループ、Telecomm Community Group (telco-cg), Storage Networking Community Group (sn-cg) と連携し、ヒアリングすることでドキュメントを改善していく、という意見が出された。

2) OGF26
第26回Open Grid Forum – OGF26は、2009年5月26日~28日にノースカロライナ州Chapel HillのThe Friday Centerで開催された。今回はグループ活動中心で、総合講演など啓蒙的なイベントはなかった。出席は14カ国から77人。この会合のwebはキャッシュにしかない。

3) OGF27
第27回Open Grid Forum – OGF27は、2009年10月13日~?に、カナダのアルバータ州BanffのThe Banff Centreで開催された。

4) グリッドガイドラインJIS化
2008年度のグリッド標準化事業はグリッドガイドラインのJIS化の作業を進めた。内容もさることながら、フォーマットの調整に時間を要した。並行してこのJISの解説を書いた。

3月10日の会議で、「日本工業規格 グリッドシステム要求事項策定のための規範」の文案を確定した。この規格は,遵守しなければならない要求事項そのものを規定しているのではなく,「要求事項を策定するための」ものであり,「この規格に従って策定される要求事項はすべてを網羅してはいないので,特定の事業上の必要性を満たすために,要求事項の追加を考慮してもよい。」と書かれている。5月18日に企画調整委員会があり、提出した文案に多くのコメントがついた。しかし、「こんなものは規格ではない」というような意見はなかった。2009年12月7日、JIS化プロセスの最終段階である、情報技術専門委員会で審議され、細かい修正の上で採択された。

JISとして制定されたのは平成22年2月22日、なんと2のゾロ目の日であった。JIS X7301「グリッドシステム要求事項策定のための指針」である。グリッドを de jure規格としたのは世界初(で最後?)と思われる。付録として「グリッドシステム要求事項策定のための指針 解説」が付けられ、制定の趣旨や経緯とともに、審議中にとくに問題となった事項がいくつか紹介されており、委員会の議論の片鱗をのぞかせていて興味深い。

5) Unix
Unixの著作権について「Unixの著作権はSCOにあり」の控訴審判決が出た。そもそもの発端としては、2000年に旧SCO (The Santa Cruz Operation, Inc.)は、Unix事業と資産を全てCaldera社に売却し、Caldera社がその後SCOと称するようになった。Wikipedia等によれば、2003年、SCOはLinuxにはSCOが保有するUnixの著作権を侵害している部分があると主張し、Linuxのユーザやベンダを法的に訴え始めた。IBMはSCOとの協業で得た企業秘密をLinuxに応用したとして訴えられ、旧SCOの顧客でLinuxに乗り換えた者は契約違反で訴えられた。これに対してNovell社は「SCOはUnixの著作権を保有していると言っているが、著作権はNovellにある」と主張した。SCOはこれに同意せず、結果として両者は裁判で決着をつけることになった。2007年8月10日、Novellに有利な判決がなされた。すなわち、Unixの著作権はNovellが保有しており、SCOはNovellに渡すべきライセンス料を不正に蓄えているという判決であった。

2009年8月24日、SCOは第10巡回控訴院(Utah)でこの判決の一部を覆すことに成功し、Unixの著作権はSCOが保有しているとの判決を得た。ただし、地裁判決のうち、SCOは$3MのロイヤリティーをNovellに払わなければならないとする部分は支持している。Novellはこの判決について、「判決文を精査しているところだ」とコメントしている。同社は、SCOが破産保護下にあることなどから、今後の展開はまだ分からないとしつつも、「この紛争の最終的な結果には依然として自信を持っている」と述べている。

その後、2010年3月30日の差し戻し審で、SCOではなくNovell社がUnixおよびUnixWareの著作権を保持していることが全員一致で確認された。SCOは破産管財人エドワード・カーンを通じてIBMとの裁判を継続する決定を明らかにした。

2011年、SCOは、Unix OS を UnXis(のちの Xinuos )に売却した。 2016年2月16日 SCOの訴訟は、ユタ州連邦地方裁判所でのIBMとSCOの合意をもって終わりとなった。

次回は、世界の学界での動きや主要な国際会議について記す。

left-arrow   50history-bottom   right-arrow