【筑波大学】資料提供招請 メニーコア型大規模スーパーコンピュータシステム(2013/07/16)
メニーコア型大規模スーパーコンピュータシステム
http://www-gpo3.mext.go.jp/kanpo/gporesult1.asp
資料提供招請に関する公表
次のとおり物品の導入を予定していますので、
当該導入に関して資料等の提供を招請します。
平成25年7月16日
国立大学法人筑波大学
財務担当副学長 吉川 晃
◎調達機関番号 415 ◎所在地番号 08
○第7号
1 調達内容
(1) 品目分類番号 14
(2) 導入計画物品及び数量
メニーコア型大規模スーパーコンピュータ
システム 一式
(3) 調達方法 借入
(4) 導入目的
本システムは、最先端共同HPC基盤施設(以
下、「本施設」と呼ぶ)において全国共同利
用資源等の目的に供される大規模高性能並列
処理システムの一部として、筑波大学計算科
学研究センターが設置運営し、先進的計算科
学・計算工学アプリケーションの実行に供さ
れるスーパーコンピュータである。
(5) 導入予定時期
平成27年度4月以降
(6) 調達に必要とされる基本的な要求要件
メニーコア型大規模スーパーコンピュータ
システムは大規模並列計算サーバ、大容量磁
気ディスク装置、及びこれらを有機的に連携
し、安定かつ効率的に運用するために必要な
その他の設備(ハードウェア及びソフトウェ
ア)により構成されるものとする。
A 大規模並列計算サーバは以下に示す基本
的な要件を満たすこと。
a 大規模並列計算サーバは高性能演算装
置を持つ複数の計算ノード(以下、「ノ
ード」と呼ぶ)で構成される高並列型計
算機であること。これらの計算ノードは
高性能相互結合網で接続されること。
b 各ノードは汎用CPU、主記憶装置、高性
能相互結合網インタフェース及びその他
必要な入出力装置からなり、全てのノー
ドは均質な構成であること。
c 各ノードの汎用CPUは多数の高性能CPU
コアを持つメニーコアアーキテクチャに
よるもので、全てのCPUコアはハードウェ
ア共有メモリ機構により相互に接続され
ること。
d 各ノードのCPUコアは均一アーキテクチ
ャであり、64ビット拡張されたIA32アー
キテクチャに基づくものであること。演
算性能は同CPUのみで提供され、それ以外
の補助的な演算加速装置等は持たないこ
と。
e 各ノードのピーク演算性能は3.0 TFLO
PS(倍精度浮動小数点)以上であること。
f 各ノード上の主記憶装置は、112 GiBy
te以上であること。
g 各ノードが備える高性能相互結合網イ
ンタフェースのネットワークリンクは10
0 Gbps以上の理論ピーク性能を持つこと。
h 各ノードは物理容量500 GByte以上のソ
リッドステートドライブ(SSD)を持つこと
が望ましい。
i 全ノードを結合する高性能相互結合網
は以下のような階層構造を持つこと。全
ノードを2~3程度のグループに分割し、
各グループ内の全ノードはフルバイセク
ションバンド幅のネットワークで結合さ
れること。グループ間についてはグルー
プ内バイセクションバンド幅の20%以上の
バイセクションバンド幅を持つこと。
j 大規模並列計算サーバ全体の理論ピー
ク演算性能の総和は10 PFLOPS以上(倍精
度浮動小数点演算)であること。また主
記憶容量の総和は300 TiByte以上である
こと。
B 大容量磁気ディスク装置は以下に示す基
本的な要件を満たすこと。
a ユーザ利用可能領域の総和は10 PByte
以上であり、全ノードから均一な方法と
バンド幅でアクセス可能であること。
b RAIDテクノロジによる耐故障運用が可
能であり、これを構成するディスク装置
単体の故障に対してはシステム全体の運
用を停止することなくこれを交換可能で
あること。
C 全ノードで利用可能なソフトウェアは以
下に示す基本的な要件を満たすこと。
a Linuxオペレーティングシステムが動作
すること。
b 各ノード上で自動並列化機能及びOpen
MP APIを有するFortran, C, C++処理系が
提供されること。
c 全ノード間で並列処理を行うためのMP
I 3.0以上の規格の通信ライブラリが提供
されること。
d 高度に並列化された数値計算ライブラ
リが提供されること。
e 全ノードを対象としたバッチジョブシ
ステムが提供されること。
f 本施設で開発中のOSカーネル及びMPI通
信ライブラリが動作すること。
D 設置環境について
導入システム全体の消費電力は、空調設備
の電力も含めて1.3 MVA以下であること。CPU、
主記憶およびディスク装置が連続的に稼働し
続けた際にも十分な廃熱が行えるよう、電源
容量、空調、設置方式が考慮されること。設
置面積は空調設備を含め250平米以下であるこ
と。
E 大規模並列計算サーバの実効演算性能に
ついては、別途導入説明書に示すベンチマ
ークにより評価する。
F 落札方式は価格及び性能・機能等の総合
評価による。総合評価の概要は別途導入説
明書に示す。
G 契約締結に当たり、複数年の契約期間の
借り入れ、または複数年の契約期間の中途
時期におけるシステム増強実施の可能性を
有する借り入れとする。
2 資料及びコメントの提供方法 上記1(2)の物
品に関する一般的な参考資料及び同(6)の要求要
件等に関するコメント並びに提供可能なライブ
ラリーに関する資料等の提供を招請する。
(1) 資料等の提供期限 平成26年2月28日17時
00分(郵送の場合は必着のこと。)
(2) 提供先 〒305-8577 つくば市天王台1丁
目1番地の1 国立大学法人筑波大学計算科
学研究センター主任専門職員 倉持 聡 電
話029-853-6486
3 説明書の交付 本公表に基づき応募する供給
者に対して導入説明書を交付する。
(1) 交付期間 平成25年7月16日から平成26年
2月28日まで。
(2) 交付場所 上記2(2)に同じ。
4 説明会の開催 本公表に基づく導入説明会を
開催する。
(1) 開催日時 平成25年7月22日10時00分
(2) 開催場所 国立大学法人筑波大学計算科学
研究センター1階ワークショップ室
5 その他 この導入計画の詳細は導入説明書に
よる。なお、本公表内容は予定であり、変更す
ることがあり得る。
6 Summary
(1) Classification of the products to be p
rocured : 14
(2) Nature and quantity of the products to
be rent : The Manycore-based Large-Scal
e Supercomputer System 1 Set
(3) Type of the procurement : Rent
(4) Basic requirements of the procurement :
The Manycore-based Large-Scale Superco
mputer System consists of a large scale
parallel processing server, a large scal
e storage system, an external network sy
stem, and other hardware and software fo
r stable and efficient operation of the
total system.
A The large scale parallel processing
server must satisfy the following cond
itions.
a The large scale parallel processin
g server must be a highly parallel s
upercomputer composed of multiple hi
gh-performance computation nodes con
nected by a high performance interco
nnection network.
b A computation node is a computer s
ystem which consists of a general pu
rpose CPU, main memory, high-perform
ance interconnection network interfa
ce and peripheral I/O system, and th
e configuration of all nodes is homo
geneous.
c The general purpose CPU of a compu
tation node consists of a number of
homogeneous CPU cores in manycore ar
chitecture which are connected by a
hardware shared memory system.
d Each CPU core in the general purpo
se CPU on each node must be based on
64-bit extended IA32 architecture.
All the computation performance must
be provided by only with these core
s without any extra accelerators.
e The theoretical peak performance o
f each computation node must be equa
l to or more than 3.0 TFLOPS (double
precision floating point).
f The capacity of main memory of eac
h computation nodes must be equal to
or more than 112 GiByte.
g The theoretical peak performance o
f network interface for interconnect
ion network to connect all the nodes
must be equal to or more than 100 G
bps.
h A computation node is desired to b
e equipped with a solid state drive
(SSD) with equal to ore more than 50
0 GByte of capacity.
i The high-performance interconnecti
on network must has the following hi
erarchical configuration. All the no
des are divided into a couple of gro
ups, and all the nodes in a group mu
st be connected with full-bisection
bandwidth. Those groups are also con
nected with each other with bisectio
n bandwidth of 20% or more of intra-
group network bandwidth.
j The large scale parallel processin
g server must has equal to or more t
han 10 PFLOPS of theoretical peak pe
rformance (double precision floating
point). The total capacity of main
memory of the server must be equal t
o or more than 300 TiByte.
B The large scale storage system must
satisfy the following conditions.
a The total capacity of user utiliza
tion space must be equal to or more
than 10 PByte.
b It must be supported by RAID techn
ology for redundant and fault tolera
nt operation, and the modules to con
struct the storage system must be ab
le to replace without stopping the e
ntire system when the disk or storag
e control system fails.
C The software available on all the co
mputation nodes must satisfy the follo
wing conditions.
a The system must be operated by Lin
ux operating system.
b On each computation nodes, Fortran,
C and C++ languages are supported w
ith automatic parallelization functi
on and OpenMP API.
c MPI 3.0 or later specification of
MPI library must be provided for par
allel processing over all computatio
n nodes.
d Highly parallelized numerical libr
ary must be provided.
e Batch-job scheduling system to man
age all the computation nodes must b
e provided.
f Operating system kernel and MPI li
brary which are under development in
our facility must operate.
D The power consumption of the massive
ly parallel processing server, the lar
ge scale storage system and all the co
oling system must be equal to or less
than 1.3 MVA in total. To support the
continuous operation of CPU, memory an
d storage system which are fully power
ed, power supply unit capacity, coolin
g system, floor plan, and all the envi
ronments must be carefully considered.
The footprint of entire system includ
ing cooling system must be equal to or
less than 250 square meters.
(5) Time limit for the submission of the r
equested material : 5 : 00 PM 28, Februa
ry, 2014
(6) Contact point for the notice : Satoshi
Kuramochi, Associate Head Center for Co
mputational Sciences, University of Tsuk
uba, 1-1-1 Tennodai Tsukuba-shi 305-857
7 Japan, TEL 029-853-6486