VMware、HPCの進捗を報告
Tiffany Trader

最近のブログエントリでVMwareのHPCの第一人者、Josh Simonsは、彼のグループがここ数カ月の間に着手された作業の概要を説明する。彼は、最も重要なHPC関連開発のプレビューの一部を提示し、数週間先行してより深い詳細を提供すると約束した。
昨年春、Simonsのグループは、マサチューセッツ州ケンブリッジの研究室で4ノードのInfiniBand HPCクラスタを組み立てた。そのテストシステムは、それぞれ128GBのメモリと2基の3.0GHz動作のIntel Xeon-E5 2667 8コアプロセッサに加えてFDR(56Gb/秒) InfiniBandと40Gb/秒のRoCEの両方をサポートするMellanox ConnectX-3カードを搭載した4台のHP DL380p Gen8サーバを含んでいる。12ポートMellanoxスイッチでこれらのノードを接続する。
ブログは、InfiniBand、ROCEとSR-IOV、そしてPhiでのチームの実験の詳細を説明する。 VMwareは、仮想化の幾つかの種類に関連する遅延時間に当たることは減り続けているし、さらに排除している。一組の実験では、ESXの試作版を使用して、ESX 5.5u1を使用する場合と比較し、非常に小さなメッセージについて15〜20%の遅延時間オーバーヘッドを排除した。
グループはまた、ESX5.5用InfiniBand SR-IOVサポートの初期バージョンを評価するため、パートナーのMellanoxと協力してきた。「仮想マシン内で直接見えるデバイス全体を作るパススルーモードとは異なり、SR-IOV(単一ルートI/O仮想化)は、複数の仮想デバイス(それぞれを異なるVMで共有することができる)として単一のハードウェアデバイスを見ることができます…。PF(物理的機能)ドライバは、Mellanoxによって私たちに初期バージョンとして提供され、VF(仮想機能)ドライバは、Mellanox OFEDディストリビューションの最新リリースに含まれています。」と彼は書いている。
Simonsは、「SR-IOVのための主要なHPCユースケースのひとつは、ホストとストレージシステム間の単一の物理的なInfiniBand接続を共有することによってLustreやGPFSのような高性能クラスタファイルシステムにアクセスするホスト上で複数のVMが可能となることです。」と加えた。テストドライブのこの機能に興味のある人は、ニューオーリンズのSC14でEMCブースに立ち寄るといい。
奇妙なPhiのため、VMwareは、Intelが提供するテストシステム上で幾つかのIntel Xeon Phi性能ベンチマークを実行した。プロトタイプのESXビルドとVMダイレクトパスI/O(パススルー)を使用して、単精度と倍精度の実行の両方においてベアメタルと比べてほぼ同じ性能を得た。下のグラフは、2つの異なるIntelプログラミングモデル(プラグマとネイティブ)を使用しての仮想およびベアメタルの性能を示している。チームは、Xeon PhiがPCI制限の都合上、ESX5.5の出荷バージョンで使用できないため、ESXのエンジニアリングビルドを使用することを余儀なくされた。
Simonsは、彼の同僚のAndrew NelsonとMatt Herrerasと同様にニューオーリンズのSC14に出席することを報告している。SR-IOVのユースケースだけでなく、vRAプライベートクラウド内の仮想HPCクラスタへのVMwareの自己プロビジョニングアプローチを実演するEMCブースでそれらを見ることができるかもしれない。