世界のスーパーコンピュータとそれを動かす人々


8月 11, 2015

東京大学 データ解析・シミュレーション融合スーパーコンピュータシステム【資料招請】

HPCwire Japan

機関名

東京大学

件名

データ解析・シミュレーション融合スーパーコンピュータシステム

調達方式

借入

導入予定時期

平成28年度7月以降

これまでの流れ

手続き 公示日 導入説明会開催日 締切日
資料招請 2015年8月11日 平成27年8月18日14:00

東京大学情報基盤センター本館1階遠隔講義室(103)

 2015年9月24日17:00

 

主な要求要件

  1. システムは、汎用CPU部からなる汎用ノードと、汎用CPU部に加えて演算加速装置部を備える演算加速ノードから構成されること。システム全体の5分の1以上は演算加速ノードで構成されること。
  2. ノード単体あたりの汎用CPU部の理論ピーク演算性能が900GFLOPS以上(倍精度浮動小数点演算)であり、かつ汎用CPU部の理論ピーク演算性能の総和が500TFLOPS以上(倍精度浮動小数点演算)であること。演算加速装置部の理論ピーク演算性能の総和が960TFLOPS以上(倍精度浮動小数点演算)であること。
  3. 各ノードの汎用CPU部は複数のCPUコアからなり,全てのCPUコアはハードウェア共有メモリ機構により相互に接続されること。
  4. 汎用CPUは64ビット拡張されたIA32アーキテクチャに基づくものであること,
  5. ノード単体あたりの汎用CPU部の主記憶容量は256GiByte以上であり、メモリバンド幅は150GiB/s以上であること。
  6. 演算加速装置部は複数の演算装置からなり,内部にそれらの演算装置間で共有可能な独自の共有メモリを持ち,汎用CPUと適宜データ交換を行うことにより超高速演算が可能であること。
  7. 演算加速装置部の主記憶容量は32GiByte以上であること。同容量が単一の演算加速装置で達成不可能な場合は,複数の演算加速装置の合計によりこれを満たしてもよい。
  8. 演算加速ノード上の各演算加速装置は,15.7GB/s以上の理論ピーク転送速度を持つバスで汎用CPUと結合されること。
  9. 各ノードが備えるノード間接続のためのネットワークリンクのデータ転送速度の理論ピーク値は、1ノードあたり100 Gbps以上であること。複数のリンクによる理論ピーク値の合計によりこれを満たしても良い。
  10. 演算加速ノードでは、演算加速装置の主記憶上のデータを汎用CPUの主記憶にコピーせずにノード間で直接通信が可能であること。
  11. グローバルファイルシステムとして2PByte以上の信頼性の高い記憶装置を有する並列ファイルシステムを提供すること。計算ノード群から40GB/s以上の転送速度で読み書きが可能であること。
  12. 高速ファイルシステムキャッシュとして、150TB以上の不揮発性半導体メモリデバイスからなる記憶装置を提供すること。計算ノード群から200GB/s以上の転送速度で読み書きが可能であること。
  13. 導入システム全体の消費電力は、空調設備の電力を除いて500kVA以下であること。CPU、メモリおよびディスク装置が連続的に稼働し続けた際にも十分な廃熱が行えるよう、電源容量、空調、設置方式が考慮されること。設置面積は空調設備を除いて90平米以下であること。

関連リンク

東京大学情報基盤センター

東京大学情報基盤センタースーパーコンピューティング部門

最先端共同HPC基盤施設

Post-T2K資料(2014/7/24)