装置科学、エクサスケール時代に備える
Tiffany Trader
日本の福岡で2月に開催されたビッグデータとエクストリームスケールコンピューティング(BDEC)ワークショップでは、エクストリームスケールコンピューティングの文脈で、今日のビッグデータの課題を議論するために産学官からの著名人が一同に会した。この招待者限定イベントへの参加者は、アルゴリズム、コンピュータ•システム•アーキテクチャ、オペレーティングシステム、ワークフローミドルウェア、コンパイラ、ライブラリ、言語やアプリケーションに関する世界有数の専門家の多くが含まれている。
BDECワークショップシリーズは、「ビッグデータに関連する主要な問題が、、エクサスケール・コンピューティングを実現するために現在立てられいる国家的(および国際的)計画を交差、衝突、および潜在的に変更する方法 」に体系的に取り組むことの重要性を強調している。
このイベントから出てくる多様な研究の中に、イリノイ州シカゴの計算研究所のディレクターでグリッド•コンピューティングの先駆者、Ian Fosterからの論文があった。 「新しい装置科学のためのエクストリームスケール•コンピューティング」の中で、Fosterは実験や観測科学コミュニティにおけるデータ量と速度はとても速く進歩し、いくつかのケースではムーアの法則よりも速く、そのようなこれらのコミュニティは生産性を高めるためにすぐにエクサスケール•クラスの計算環境が必要になると主張している。しかし、分析作業の一部が装置自身の中に統合することができればどうなるか?
Fosterの主張の核心は、 「装置科学は・・・エクサスケール技術の影響を大幅に拡大する可能性を秘めています。 」ということである。
Fosterは科学的装置の刺激的な未来を描く - 光源、 トカマク(核融合炉) 、望遠鏡、加速器、ゲノムシーケンサーなど - 機器の出力は実験を導くために使用されるシミュレーションモデルの一部となる。実験は数ヶ月かかる一連のステップを必要とする典型的な線形科学プロセスの代わりに、エクサスケール技術は、現在のモデルを誘導するために使用されている知識ベースを供給する先行研究にはるかに迅速なプロセスへの方法を示す。このシナリオでの「興味深い」特徴はデータが生成されるようにフラグを付けることができ、そしてその後実験が実行されるかのごとくその出力を十分に理解し、さらにシミュレーションモデルを進化させる。
エクサスケール指向のハードウェアとソフトウェアの進歩だけでなく、このような知的で動的なモデルを実現することが求められ、科学的知識へより直接的に関係する3つの特定領域があるとFosterは言う。それらは:
- 大量の多様なデータの迅速な統合と実行可能な知識へそのデータの変換を可能にするための知識管理と融合
- データ駆動型の研究活動の中に完全にまたは部分的に自動化された意思決定を導くために大規模な知識ベースの使用を可能にするための迅速な知識ベースの応答
- 迅速な仕様、実行、そしてしばしば多くのリソースに跨がり、多くの参加者が携わる科学プロセスの指導を可能にするための人間中心の科学プロセス
多くの仕事が知識ベース科学の分野で行われてきたが、装置科学の来たる時代は、「データ量、多様性、そして複雑さ」に関する独自の課題に直面し、人間の専門性、計算メソッド、およびセンサー技術の補完的な機能の均衡を図る必要があります。」とFosterは言う。
「シミュレーションと装置の統合は、装置科学での新しい科学プロセスを生じる重要な例を表します。」とFosterは説明する。 「一般的な言葉では、チャンスはこれです:計算シミュレーションが最善の可能性を捉えますが、現実は不完全な理論的な解釈です。装置からのデータは、現実の最高の可能性を提供できますが、現実は不完全な観測です。ひとつが他と直面することは、様々な方法で知識を進歩させること助けることができます。」
Fosterは、この新興のパラダイムのための最も重要なアプリケーションドライバーとして、宇宙論や材料科学を示す。デジタルスカイサーベイを介して「リアル・スカイ」でバーチャル・スカイを比較するため、または乱雑な材料内の欠陥構造を決定するための必要性があるかどうか、計器データを処理し、観察が比較されたシミュレートされた現実を準備するために大規模計算が求められる。