世界のスーパーコンピュータとそれを動かす人々


6月 22, 2015

IEEEのグループがスケールの失速としてコンピューティングを再発明

HPCwire Japan

George Leopold

計算機性能の歴史的な指数関数的スケールに戻る方法を数年前から探すことで頭を強打されていることを知っているように、計算機科学者はコンピューティングの終わりを心配している。「リブート・コンピューティング」と呼ばれる構想の提唱者は、必要なことは、より高い性能、より低い消費電力、そして「最初からセキュリティを固めること」の三連勝単式を達成するために、コンピュータを設計する方法の抜本的な見直しにほかならないと言っている。

ジョージア工科大学の工学教授でリブートコンピューティング十字軍の共同議長であるThomas Conteは、何がムーアの法則の次のものになるかに応じて、計算機科学を勉強するのに最高または最悪の時となると学生に教えていると語った。米国電気電子学会(IEEE)コンピュータ・ソサイエティがスポンサーするこの構想の成果は、Conteのが学生達が行き止まりに行くのか、それとも新しいコンピューティングの黄金時代に入るのかを判断する長い道のりを行く事となるだろう。

さらにIEEEは、コンピュータ・アーキテクチャのオーバーホールから出てくるものなら何でもために、重要なアプリケーションを見ている:悪く定義されたモノのインターネットの新興である。したがって、リブート・コンピューティングの努力は、究極的にはIoTによって提示される技術的課題にドライブされることができるのだ。

その成果は、一つの生き残れるアプローチにとって良い前兆であった:クラウド・コンピューティングだ。クラウドの演算要素の抽象化が進むべき道を示すだろう、とConteは言う。「クラウドとIoTは物事を変えます。」と彼はインタビューで語った。さらに、「それらはリブート・コンピューティングを可能とする方法を提供するのです。」

クラウドとモノのインターネットとして知られる構築物は、主にムーアの法則の基礎の上に建立されたコンピュータアーキテクチャから性能を最後の1滴を絞り出すように設計された前の時代の増分アプローチ以上のものを表している。しかし、過去数十年に渡りコンピューティングの力をドライブしている終わりは近い:「それはトランジスタを非常に小さく作る事ができない、物理学の基本的な性質なのです。」とConteは語り、「最終的にはシリコン原子の大きさで制限されるのです。」

コンピューティングについては、コンピュータ・アーキテクチャ自体が制限要因となった1990年代半ばに、終焉が始まったのだ。最初のトリックは、スーパースカラー・マイクロプロセッサによって増強された並列処理だ。この時代、このアーキテクチャは、ほぼ同じコストで18ヶ月毎にコンピュータの性能を2倍にしてきた、とConteは言う。

最終的には、さらに多くのインストラクションの「投機実行」が高電力で高性能につながった。これは持続不可能であり、そしてムーアの法則の終焉の開始が表面化したのだ。

20150506-F1-Conte_Thomas
ジョージア工科大学のThomas ConteがIEEEのリブート・コンピューティング・イニシアティブを推進している。

 

このアーキテクチャ的難問に対する反応は、同じチップ上の複数の演算コア、もしくはマルチコアであった。Conteはこのその場凌ぎが基本的にコンピューティングの負担をハードウェアからプログラマにシフトさせたと主張している。「ソフトウェアはま脆いのです。」とConteは主張し、マルチコアは絆創膏以上のものではないことが分かった。

そのため、「リブート・コンピューティング」の支持者は、現在のコンピュータ・プルグラマーが使う本質的に連続なプロセスに頼るよりも、IoTのようなアプリケーションが未来のコンピュータ・アーキテクチャを推進することを終わらせることができるかもしれないと信じるのだ。

そして、Conteの認識ではコンピュータ業界においては「狂人フリンジ」と考えられる、新興アプローチの拡大するリストがあるのだ。しかし、リブート・コンピューティング・キャンプは、次のアプリケーション・セット用にコンピュータを構築する新しい方法への増分ステップから会話を遠ざけようとしている。疑問は、IoTのようなアプリケーションがコンピュータ・アーキテクチャの推進を終わらせるのか?だ。

「今日我々が持っている以上に非常に異なるアルゴリズムとプログラミング言語を操作するためのコンピュータを、根本的に異なる方法で作ることができるのか?」とConteは尋ねる。

20150506-F1-reboot_santacruz
リブート・コンピューティングの仲間はシリコンバレーの2014 summitをフォローしている。このグループの次のsummitはワシントンD.C.で12月に開催される。

 

「狂人フリンジ」コンピュータ・アーキテクチャの不足はない。欠けているものは、コンピューティングを変革するために根本的なオーバーホールのリスクをとる意欲である、とConteと他の人達が断言する。それは官民のパートナーシップを取り、IEEEがそれを維持することだ。(「リブート・コンピューティング」の原動力はコンピュータ教育を刷新するための数年前の全米科学財団の取り組みであった。)

エネルギー効率の「3つの柱」と共にあるのは、新しいユーザインタフェースと「ダイナミック・性キュリティ」、「ニューロモルフィック」および「近似」コンピューティングから、断熱もしくは「リバーシブル」コンピューティングの範囲にある可能性のあるコンピューティング・アプローチのリスト、そして並列処理のバリエーションだ。

多くの投資を集めている量子コンピューティングは有望性を示しているとConteは同意する。「それは独自のニッチを持つでしょう。」と説明し、「それはクラウドの独自のノードです。しかし、低消費電力ではありません。」

Conteが考えるより有望なアプローチは基本的なトランスフォーム・コンピューティングで、HPC研究所の「The Machine」だ。

このHPアーキテクチャはメモリとストレージを「融合」させ、複雑なデータ階層を単純化し、そしてビッグデータとIoT時代への同意の中で、処理をもっとデータの近くに移動させるのだ。現在のコンピュータ・アーキテクチャとは異なり、The Machineはまた、セキュリティをハードウェアおよびソフトウェアスタックに中に「焼き付けて」おり、ムーアの法則がもはやできないスケーリングを提供することを確約している。

「やろうとしていたことは、」とConteは付け加える、「階層全体にスケーリングの新しい方法を見つけることなのです。」

IEEEによって求められる官民のパートナーシップを強固にする助けをする、もうひとつの可能性のあるコンピュータ革命の源は、米国国防高等研究計画庁における進行中の計算機科学研究だ。DARPAのマイクロ技術オフィス(MTO)は多くの資金を、シリコンの代替を模索するようなデバイス研究に費やしている。しかし、MTOのディレクターであるWilliam Chappellはまた、データを表現する新たな手法を探すために、回路設計の先を見ることを強調している。そのため、DARPAはアルゴリズム開発のような領域へさらに重点を置いているのだ。

軍事においては、不十分なスペクトルを共有できるようはソフトウェア定義の機能に変わってくる。民間部門におけるそれらの同じ技術は、IoTを構成するような数十億の接続されたデバイスやセンサーからのデータを処理することに使われるだろう。

ChappellはIEEEの取り組みと同じように、コンピューティングの問題に対処している:「年々ムーアの法則への“ただ乗り”が遠ざかっているのを見始めています。」つまり、トランジスタ数は常に増えているが、この処理能力を活用する能力は平坦化しているのだ。

20150506-F1-Screen-Shot-2015-05-05-at-8.07.55-PM

コンピュータのスケールは壁にぶつかっている。

IEEEのような防衛機関は、リブート・コンピューティングへの同じニーズを見ている:「私達のコンピューティング・システムは、新しい手法での需要の増加、新しいアーキテクチャの探求、アルゴリズム/信号処理、そしてハードウェアなどを取り扱う能力を持っていなくてはなりません。」

もちろん、これら全ての努力の鍵となるのは、
The Machineのような確約されたアーキテクチャを研究室からスーパーコンピュータ・センターや、最終的にはハイパースケール・データセンターに移動することである。これらの開発作業は次の大きなゴールを達成することを目標にしている:エクサスケール・コンピューティング、それは毎秒1018回の計算をする性能のことだ。未来のコンピューティングの3つの柱に加えてこのレベルの性能は、単にマーケティングの構築物以上の本当のコンピューティング・プラットフォームとして、モノのインターネットを達成する道筋を提供することができるのだ。

このため、Conteが述べるように、未来のコンピュータ・アーキテクチャはアプリケーションによって推進され、アーキテクチャ的選択を行う古いアプローチは置き換えられて安置され、そして結果として機械がプログラムを実行することとなり、プログラムは与えられた精度で数値を計算するか、1命令毎に実行することとなる。

ここでも、IEEEは接続された世界では単に持続可能ではないと主張している。

気象や気候シミュレーションのような他のアプリケーションもまた、コンピューティングへの連続的なアプローチがもはや機能しない理由を示している。予報者は、例えば経済的混乱のような回避する必要のある精度で、嵐の軌跡を予測することはできない。問題はコンピュータであり、彼らが使うモデルが毎日生成される衛星データの量に追いついていないのだ。例えば今週だけで、米国海洋大気庁は
米国の気象衛星が毎日生成する推定20テラバイトの観測データを掴む、クラウドベースのビッグデータの取り組みを発表した。

インテルのようなチップメーカーがIoTデバイスにインテリジェンスを追加するために、さらにチップを販売することにフォーカスし、Ciscoシステムのようなネットワール企業が「全てのインターネット」に関する企業戦略を構築したりする一方で、基本的に、コンピュータが設計される方法と彼らが将来使われる方法を再考するために、臨界質量がでてきているようだ。

終わりに、リブート・コンピューティング・イニシアティブはワシントンで今年の終わりに再び会議を行う予定であり、IEEEコンピュータ・ソサイエティの会長が「コンピューティング業界における地震」の開始と呼ぶものを開始する、Conteは語った。