不確実性の達人に聞く — スーパーコンピューテイングによる不確実性定量化の将来
Nicole Hemsoth
カリフォルニア工科大学のHouman Owhadi博士とClint Scovel博士によると、HPCが進歩するにつれて、ベイズ統計手法はより重要になっている。HPCwireは両博士と特別な音声インタビューを行った。ベイズ統計手法が、どのように多くの研究と企業努力に貢献するか、より高度な問題に対処するためには、どのような計算と計算機が必要なのか、どのようにこの分野が進歩するのか、エクサスケールあるいは量子計算機によって進歩が続くのか、についてである。
HPCwire: HPCの潮流の中で、科学と工業の分野で不確実性を定量化するために、従来よりさらにベイズ統計手法が重要になると、お二人は最近主張しています。より進歩したシステムへ向かうにつれて、この手法が必要であり、より必要になるとは、どういうことですか?
Owhadi: ベイズ統計手法は、Thomas Bays牧師によって発見されるまで遡ります。公式が発見されてから、Pierre-Simin Laplace が研究を続けて、ベイズ推論という分野に育ちました。そして、250年間に渡る論争が起きました。論点は、ベイズ推論において、現実に何かが起きる何らかの事前確率を知り得たから、観測された何らかのデータによって、事前確率を味方につけられたということです。これが、Baysの法則です。(訳注:prior=事前確率、posterior=事後確率、詳細については統計学の教科書をご覧いただきたい)
そして、Pierre-Simon Laplace が次の段階を付け加えました。よろしい、では、事前確率を知る必要が本当はなかったら、本当は何をできたでしょうか。事前確率を正しく得られたから、あるいは、だいたいの値を得られたから、Bayesの公式を使え、知識を更新できます。これによって、現在我々がBayes推定と呼ぶ分野が始まりました。
1950年代に、Bayes推定は好奇心の対象でした。複雑なシステムについて、Bayes事後確率を実際に計算することが不可能だったからです。しかし、現在、HPCの発展によって、事後確率を計算できます。Bayes推定がエレガントで単純な方法なので、情報を信頼性と結合するために、ますます人気があるようになりました。
HPCwire: Scovel博士、何か追加してください。HPCは、しばしば、正確さと解像度を上げ、できる限り真実に近づくことだと考えられていますが、次の世代への応用においては不確実さが重要ということでしょうか。
Sovel: 何かのシステムが全てを正確に計算できると言われたら、誰も信じないでしょう。あらゆるもには誤差があり、その中に若干の信頼があるのが現実で、興味深いことです。互いに関連するものがある場合に、不確実さの定量化はHPCに有用であるだけでなく、HPCが不確実さの解析に有用です。彼が言ったように、1950年代は計算の基礎的な能力ができあがった時代であり、特にマルコフ連鎖モンテカルロ・シミュレーションの事後確率を計算しました。
HPCwire: 工業と科学の領域の計算について、重要なことを話してください。
Owhadi: リスク分析。気候モデリング。例えば、Boeing社のことを考えてみましょう。Boeingが新しい飛行機を開発する際に、予算の大部分は安全性の評価に使われます。その産業について理解すべきことは、新型飛行機の飛行1時間につき、10のマイナス9乗未満の確率でしか破滅的なことが起きないと保証することです。これは、とても小さな値です。
そして、もちろん、10億機の飛行機を実際に飛ばしてどれだけが墜落するか数えることは不可能なので、限られた情報に基づいて安全性を評価する必要があります。もう一つ例を挙げましょう。JPL (訳注:合衆国ジェット推進研究所、宇宙ロケット開発の中心)が、人工衛星や太陽系の他の惑星を回る人工衛星のために、多額の予算を使っています。墜落しない可能性を保証する方法があるでしょうか。一つの方法は、1000個の人工衛星を作って、いくつが墜落するか数えることです。しかし、これはあまりにも高くつきます。そこで、非常に限られた情報を元に、評価する必要があるのです。この問題は、不確実性定量化と呼ばれ、新しい分野を発達させました。これは新しく興った分野です。
これは、基本的に、確率論と統計学と計算機科学の間に生まれた分野です。統計的標本数が少なく、複雑な情報を持つ工業的システムに、関係があります。そのためすべきことは、最適な方法で情報を処理し、最適な方法でリスクを仮定し、誤った仮定をせず、関連する情報を無視しないことです。
もう少し説明しましょう。結局の所、我々の見解は、テストされていない情報の断片あるいはデータの断片が正しいかどうか、本当は言うことができないということです。しかし、この(不完全な)情報が与えられたら、最適の方法で処理することが、最善の方法です。基本的に我々が務めていることは、最適の方法で情報を処理するための、アルゴリズムのフレームワークを開発することです。このような方法に多くの応用が可能であると、想像できるでしょう。
HPCwire: Scovel博士、あなたのご専門である最適推定の科学的計算について、つい先ほどの例を信じています。このインタビューにふさわしい、もう少し詳しいお話をいただけませんか。
Scovel: はい、彼が最適な方法について話していたときの、最初の疑問は、それが何を意味するかです。解を提供する代わりに、最初の課題は、顧客の目的その他興味がある全てのものについて、問題を定式化することです。情報、我々は情報について何を知っているのか。どのような専門家が領域(domain)を知っているだろうか。そして、最適化問題の定式化とは、本質的に、問題に対すして最適解がどのような意味を持つかの定義である。人工衛星の信頼性のように。
歴史的により新しい問題は、このプロセスに何らかのモデルを用意し、そのモデルについて何が起きるか観察することです。我々の見解は異なります。解きたい問題を定式化したい。計算機の能力を使いたい。実際に問題を解くにはHPCが必要です。私はずっと、Bays統計手法を昔と同様のものと考えています。昔の人々がそうしなかったのは、計算機の能力がなかったからです。しかし、今では計算機の能力があります。最適推定問題を定義して、その問題を計算機で解けます。即ち、最適予測問題は、我々が同意する仮定のある集合について最適なのです。
HPCwire: あなたがたの両方とも、研究対象の量によって、エクサスケールの問題を解くと気づいています。これはより高いレベルによって可能になる、という解釈でよいでしょうか。
Owhadi: その通りです。もう一つ比喩をしましょう。200年前に偏微分方程式を解く必要があったならば、計算機ではなく、人間の脳を使ったでしょう。定性的な予測のみが可能で、定量的な予測は不可能だったでしょう。
現在ならば、人間の脳ではなく計算機を使って、偏微分方程式を解きます。しかし、そのプログラムを書くためには、人間の脳が必要です。このパラダイム・シフトは、1950年代にJohh Von NeumannとHerman Goldsteinの重要な業績によってもたらされました。そして、計算機として人間の集団を使うことが、20世紀初めに組織されました。
現在において、最高の統計推測者を見つけるか、最高の気象予測モデルを見つけるか、観測している何らかのデータが無意味かどうか知りたいならば、計算機を使おうとはしないでしょう。自分の脳を使って考えます。我々の目的は、基本的に、このような推測を人間に頼る方法を変えることです。そのためのアルゴリズムを高性能クラスタ上に実装できるでしょう。
問題が置き換わる背景の数学を見たならば、科学的発見の方法がアルゴリズムに変わるでしょう。これらを最適化問題に書き換えることはできます。しかし、最適化すべき変数は離散的でない。0か1ではない変数が現れます。基本的に無限次元の問題になります。我々が新しい解析学から見つけたものは、これらの無限次元の最適化問題を、計算機で解決可能な有限次元の最適化問題に書き換えることです。
問題を縮約(reduction)できたあとでさえ、これらの問題はとても巨大なので、これらの種類の複雑な問題を解くために、エクサあるいはペタ・スケールの機械が必要だと信じています。
HPCwire: 必要なシステムについての話は、なんと興味深いことでしょう。D-Waveが最近語った「quontum computer company」という引用だけを信じられると最近話しました。これは最適化問題の正しい種類でしょうか。世界の問題を解くために最善で、量子計算のスイート・スポットなのでしょうか。あなたは、これが本当に存在すると信じますか。さらに、信じるならば、あなたが解こうとしている問題に適合するでしょうか。
Owhadi: これは興味深いです。エクサスケールへの期待からでしょうか。一部分の人々は、高性能計算に近づく二つの方法があると信じています。最初の方法は、元の問題と同じ種類であるが、より大規模な問題を解くことです。このために、気候モデリングを研究している人は、引き続き気候モデリングを研究します。気候モデリングについてやるべきことがもう一つあります。モデルのメッシュ数を増やせば、今までは4日後までしか予測できなかった問題を、より細かいメッシュで5日後まで予測できるでしょう。
我々が想像する別の種類のパラダイム・シフトは、より大きいモデルを数値的に解く代わりに、モデル自体を見つけるために(人間の脳ではなく)計算機を使うことです。そうならば、量子計算は新しい種類のフレームワークに役立つでしょう。
Scovel: より多くの計算能力があれば、よりよい成果を得られるでしょう。
Owhadi: 情報が0か1で与えられるとは限りません。最適化問題について考える際に、最適化すべき変数があり、それは確率の測度と関数で、無限次元空間に存在します。計算機による微分積分学は、必然的に離散的で有限である。そのために、技術の第一段階は数学的です。これらの無限次元のオブジェクトを操作できる、新しい形の微分積分学が必要です。これが基本で、我々が行ったことです。この微分積分学の新しい形によって、大きな最適化問題を計算機で解決し始めることができるように、何らかの離散的で有限な問題に変形します。
Scovel: 計算機の能力についての質問以外の意味で、他に話すことがあります。我々が議論しているプログラムとパラダイム・シフトの一部分は、何が最適解であるかを表す数式を作り出すことです。これは、実際にプログラムの大きな部分です。自分が計算機に何を求め、より多くの計算能力が必要かどうか、はっきりとは解りません。最善を意味する何かを計算したいと望むのが現実です。
これらの問題を定式化するための複雑さを考えています。そして、これらの問題のための定式化が、最適な予測方法あるいは最適な推測方法であり、解決のための努力の全てのレベルから情報を必要とするかと考えています。顧客からプロジェクト・リーダー、領域の専門家、材料科学の専門家、統計学者です。多くの分野での例題の代わりに、たくさんのモデリングをし、多くのスタッフを要し、ようやく、統計学者と多くのスタッフから結果を得られます。
これらを同時に行う必要があると強調したい。興味を持つ対象だけではなく、その定式化が重要です。しかし、定式化は情報の断片であり、現実的なパラダイムの定量的な集合として確立するのです。そして、最適化は現在発展途上です。いいですか。大規模な最適化問題があったとして、どうやって解析学的に縮約するか、縮約された解析学的問題をどのように扱うか、どのように計算機上に実装するか、その結果をどうやって知るか。絵札を並べ替えるようなものです。
Owhdi: ここで二つの例を挙げましょう。最初の人は株式市場へ投資しています。株式市場に投資する最適方法があるかどうか。現在、これは明らかでありません。どのように最適化問題に書き換えるべきか。我々が開発しているフレームワークによって、問題を最適化問題に書き換えて、高性能クラスタ上で計算可能にできるかどうか。アイデアは、限られた情報を与えられて、最適な方法で投資することです。
もう一つの例は、チェスのゲームです。非常に上手にチェスをする計算機が既に存在します。計算機は、情報ゲーム、情報戦争をできるでしょうか。例えば、2つの軍隊が情報戦争をしています。あるいは、2つの会社が競争しています。そして、対戦相手についての情報は制限されています。いくつかの選択可能な手があります。限られた情報から最善の手を選ぶのが、情報ゲームです。そして、盤はチェスのように64ますではなく、無限です。動きは、チェスのように離散的な有限個ではなく、連続量で無限にあります。
(訳注:チェスのように盤面の情報が対局者に完全に解っているゲームを完全情報ゲームという。それに対して、麻雀やポーカーのように一部分の情報が隠されているゲームを不完全情報ゲームという。Owhdi博士は不完全情報ゲームの難しさを説明している。)
これらの問題に立ち向かうためには、チェス盤の上の問題ではなく、現実の問題を扱うための新しい数学を必要とするのです。これは、新しい数学を展開するために、我々の技術の第一歩です。
HPCwire: この道に沿っの計算が、どこであるアプローチに革命をもたらすでしょうか。
Owhadi: 結局、我々が計算機を使うと、数学的な方程式を解くのではなく、数学的な方程式自体を開発するように、科学的発見のプロセスが変わります。これが、機械学習の分野に導入されています。機械学習の分野では、計算機に尋ねる問題を小さなステップに分解し、計算機のために咀嚼します。
我々が開発しているこの技術は、基本的に長期間を見渡す視力です。計算機が現実の問題を解く力を与えます。現実の問題を解き、現実から受け取るフィードバックによってモデルを改良します。これが、基本的に、機械学習の変化です。