データセントリックコンピューティングの兆し
Tiffany Trader
ビッグデータの病気?そう速くない。データセントリックシステムの時代は始まったばかりである。このテーマに取り組む最近のブログは、IBM Researchのデータセントリックシステムズの副社長、Tilak Agerwalaである。
Agerwalaは、観測する:「1950年代以降、HPCシステムによるモデルの研究は、 これまで以上に洗練されたユーザが必要とする、そして計画する計算能力の増加に伴って規模と詳細の両方で増加しています。この増加は、秒あたりの浮動小数点演算またはFLOPSの形で表現されます。し、TOP500によって測定するように設置されたFLOPSの総計は、1993年に追跡を始めて以来、指数関数的に増加し、60Gigaflops未満からほぼ300Petaflopsの今日に至ります。そして、増加したFLOPSの需要は、予測可能な将来においても和らぎそうにありません。」
「しかし、どのようにHPCシステムの設計を前進させるかが劇的に変化する新しいトレンドの出現を私たちは今見ています – 世界で最も新しく、そして間違いなく最大で、天然資源のようなデータの出現です。」
「しかし、HPCには、常に両面がありました。問題は、計算中心陣営とデータ中心陣営に分けていることです。もし、ビッグデータが、HPCに新しいものではない時、それからすべて大騒ぎじゃないですか?」
Agerwalaは続ける:「今日のビジネス、学術機関や政府機関は、同時に何百万ものユーザにサービスを提供するクレジットカードのようなトランザクションベースシステムにおける不正行為の検出から、細胞同士のリアルタイムな人間の心臓鼓動計算シミュレーションまで、HPCのための極めて多数のアプリケーションを持ち続けています。しかし、60年前とは異なり、これらのモデルは現在数兆倍以上のデータをサポートします – キロバイロからペタバイトへ跳躍し、成長しています。」
何兆倍でもシステムへ追加することは、現状を無用とすることが確実である。
「HPC上でこの構造化および非構造化データのこの殺到は、このデータ規模の需要のワークロードにおける高まるニーズに対応可能な柔軟なコンピューティングアーキテクチャが求められます。」と彼は言う。「将来に備えるため、IBMは、コンピューティングのための新しいパラダイムとしてデータセントリックシステム(DCS)デザインを採用しています。」
2011年に、IBMはSequoiaと呼ばれるBlueGene/Qスーパーコンピュータをローレンスリバモア国立研究所に供給した。プロジェクトCardioidの元、Sequoiaは人間の心臓全体のシミュレーションを可能にした。全体システムモデリングは同様に、科学や医学、産業に対して顕著な影響を与えてますが、しかしIBMは、データセントリックシステムが「洞察のシステム」となるべき時のさらに遠くの先を見ています。」
データは、複数同時に、そして結合されたシミュレーションを利用する、より高精細なモデルへの鍵である。しかし、この次の段階になって、今日の最高システムよりも100倍以上の計算能力のみならず、データセントリックアプローチが必要になるだろう。
「真のデータセントリックシステムは、私たちが、モデリング、シミュレーション、分析、ビッグデータ、および機械学習や認知コンピューティングが「洞察のシステム」として統合することができた時に実現されるでしょう。」とAgerwalaは主張する。「彼らは、より柔軟により低エネルギーコストでより速くこれらの能力を備え、コンピュータの新しいカテゴリーの効果的な先駆けとなります。」