世界のスーパーコンピュータとそれを動かす人々


12月 25, 2019

SC19:IBM、HPC-AIゲームプランを変更

HPCwire Japan

John Russell

IBMが大きな賭けで知られていると言ってもおそらく間違いはないだろう。Summitスーパーコンピュータは大きな勝利。 Red Hatの買収も大きな勝利であろう。 OpenPOWERおよびPowerプロセッサについての結果は?SC19において、長年のIBMerであるDave Turekは、Big Blue(IBM)に対する別の種類の賭け-野球のアナロジーを許してもらえるのであれば、小さなボール戦略-を考え出した。そのアイデアは、大きなマシンやインフラストラクチャパッケージを販売することではない(もちろんそれも歓迎はするが)ということだ。代わりにIBMは、設置面積の小さいシステム(つまり価格タグ)でIBM AIの専門知識を使用し、既存のインストール済みHPCインフラストラクチャを「スーパーチャージ」する取り組みを展開している。

アイデアはシンプルである。クライアントのインフラストラクチャからアプリケーションデータと運用データを取得し、IBMのAIソフトウェア(Turekは、IBMのベイジアンエンジン(IBM Bayesian Optimization)を強調している)を介して実行し、アプリケーションを高速化し、価値を迅速かつ低コスト、中断なしで提供する、単一のノードなどの小さなPowerベースのシステムを展開する。

 
  IBMのDave Turek
   

「私たちの野望が何であるかはっきりとさせましょう。それは、インストールベースで混乱を最小限またはゼロに抑えるソリューションを作成することです。そのため、販売サイクルを短縮し、クライアントが何であれ、何をしているのかをできるだけ簡単にすることができます。」Turekは、SC19ブリーフィングでHPCwireにこのように語った。IBMがAIを使用してホストインフラストラクチャで実行されるタスクを劇的に高速化する、製造、金融、EDA、セキュリティ、ITシステム管理などの1つまたは別のドメインに最適化されたシステムを導入することが容易に想像できる。発表されたものはないのだが。

実際、SC19での、新しい主要なIBMシステムの発表やPower10プロセッサの主要な更新はなかった。IBMマシンであるSummit(148.6 PF Rmax)およびSierra(94.6 PF Rmax)は、Top500の上での地位を保持した。代わりに、IBMの今後のBayesianソフトウェアに関する短い「ホワイトペーパー」において、IBMはあらゆる種類のシミュレーションの速度を上げて精度を向上できると述べた。たとえば、IBMはこれを使用して、Power10マイクロプロセッサ開発タスクでEDAシミュレーションの回数を79%削減した。

「私が明言しないと述べてきたことが何かというと、私が特徴づけたこの種の移行は、IBMの内部からもたらされる有機的な革新の出現を明確に示すことである、ということです。おそらく(過去に)AIを見て、AIはNvidiaのGPUとMellanoxネットワーク、そしてGoogleのTensorFlowなどに関連していると言う人もいるでしょう。それらはポーカーのテーブルステークスのようなものです。しかし、実際にはここで取り組んでいるものであり、すべてに価値があります。Nvidia GPUを配置できずに、8倍のスピードアップを簡単に実現できるでしょうか。それは高額になるでしょう。しかし、小さなPowerクラスタを配置し、その中にいくつかのGPUを搭載すると、アプリケーションは20倍高速に実行できるでしょう。」

 
   

クライアントデータを取得し、さまざまなAI機能を使用して実用的な洞察に変えるというこの考え方は、IBMにとって新しいものではない。これは少なくともIBM Watsonのコア戦略の一部だった。 SC18において、IBM Cognitive Systemsのhigh performance and cognitive computing部門、副社長に肩書きが変更されたばかりのTurekは、同様のアイデアを概説した。最新の構築は、従うべき特定の製品を備えたより具体的な計画のようだ。たとえば、IBOソフトウェアは現在ベータ版だが、Turekによると、2020年6月の期間に一般的に利用可能になる予定とのことである。

IBMが主要なシステムビジネスに背を向けているというわけでないとTurekは述べた。Turekによると、ここ数年、マサチューセッツ工科大学、プリンストン大学、マイアミ大学、テネシー大学、レンセラー工科大学、ドレスデン工科大学などの学術研究機関で大きな成功を収めた例もある。もちろん、SummitとSierraでアメリカ合衆国エネルギー省が勝利を収め、IBMが来るべきエクサスケールマシンのたった1つにも勝てなかったということは驚であった。エネルギー大手のTotalのPower9ベースのPangea(17.9 Linpackペタフロップス)は、世界最大の商用システムの1つである。

課題は、そのような大規模なシステムの取引が不足しており、OpenPowerシステムとPowerマイクロプロセッサの販売に火が付いていないことだ。新しいエコシステムの構築とx86の廃止は、手ごわい作業であることが判明している。新しい戦略では、基本的に既存の実質的なインフラストラクチャがすべて潜在的なターゲットになる。手始めに、まどろっこしい資本予算サイクルをめぐって争う必要はないだろう。

「私たちが戦略的にやろうとしているのは、当初からHPCの特徴であるこのリッピングアンドリプレース現象を回避し、資本の承認とサイトの準備などにかかる時間の遅れから逃れることです」とTurekは述べた。

IBMは、現在の主力であるBayesianを超える新たな計画に関する技術の詳細をほとんど公開していない。AIにはもちろん、さまざまな機械学習、ディープラーニング、および広範な分析技術が含まれる。たとえば、これらを活用して、モデリングやシミュレーションなどの従来のHPCタスクを改善することは、現在HPCコミュニティ全体で集中的に取り組んでいる分野である。

大まかに言えば、Bayesianのアプローチでは、実世界の結果と経験を使用してモデルに通知する。(このアプローチは、発明者のThomas Bayes(c. 1701-1761)にまで遡る。)IBMは、シミュレーションに知性をもたらすものとして、Bayesian最適化手法を提案している。以下の抜粋は、SC19にて公開されたIBMの短い論文からのもので、EDA、創薬、計算化学の例を簡単に説明している。

従来の検索方法と効率のギャップを埋めるために、最適化アルゴリズムは計算実験の設計と展開に知性をもたらしています。Bayes方程式とその方程式の背後にある統計は、応答関数の探索を進めるための最も可能性の高いパラメーターセットに関するガイダンスを提供する。Bayesian最適化は、「持っている限られた情報に基づいて、次にやるべきことは何か」という質問に答えるだろう。

いつもと同じように、市場は、テクノロジー、価値、使いやすさに基づいて決定する。HPCコミュニティにとって、このアプローチは「ブラックボックスじみたもの」のように聞こえますが、おそらくそうではない。コストが十分に低い場合、資本予算を解放するために、頻繁に論議を呼ぶ長いプロセスを回避できることは常にプラスである。また、より多くのノードやその他必要なストレージなどのインフラストラクチャの後続販売への希望や期待もある。

Turekによる要約は以下の通りである。

「つまり、シミュレーションの実行方法を調整するための情報を提供するシミュレーションとBayesianメソッドの間を行き来する配列情報があるため、Bayesianアプローチの方がはるかに優れています。そこで解決策を講じます。小さなPowerクラスタです。Bayesianソフトウェアがインストールされています。数年前のHaswellクラスタがシミュレーションを実行しており、企業からの最後の資本投入が5年前だったため、もうたくさんのお金を得ることができない、なんて私は知りません。どうしますか。」

「私たちがやろうとしているのは、クラスタを持ち込み、それをデータセンターに入れ、データベースを立ち上げ、両側からそのデータベースへのアクセスを許可することです。そのため、シミュレーションが実行され、出力パラメーターがデータベースに入れられます。何かが到着したことが分かったら、行って調べ、機械学習アルゴリズムがそれを分析し、入力パラメーターの推奨を行います。次のシミュレーションでは、洗い流しを繰り返します。そしてこれを進めるにつれて、Bayesian機械学習ソリューションはますます賢くなります。最終的にあなたは、より速く、ゲームの終わりである結果にたどり着くことができるのです。経験的結果:彼が引用した化学式の定式化問題。彼らは計算量を3分の2削減しました。病気の新薬の発見で、彼らは計算を95%削減しました。」

「2,000ノードのクラスタに隣接する4ノードのクラスタに配置し、2,000ノードのクラスタを8,000ノードのクラスタのように動作させるでしょうか。このことについてどのくらい考えなければなりませんか。」

乞うご期待。