気候タイムマシンを可能にするスーパーコンピューティング
Tiffany Trader

高性能になった計算性能をさらに押し上げるメリットがないような科学領域や学問分野のことをかんがえるのは難しいが、気象研究は計算とデータ集約性能に特に依存するという点で、際立っている。
気象変化を特徴的なものにしているのは、複雑性を内在した多種の変数を持つ大規模なモデルを必要とすることである。それらの要素としては、海水温、海流、海氷、海表面と大気との相互作用、陸地からの大気温、雲の影響といったものだ。スーパーコンピュータは、これらすべての要因を考慮しなくてはならないし、さらに、影響し合うあらゆる可能性を計算しなくてはならない。この手のシミュレーションは、一度の計算に世界最大のスーパーコンピュータを数週間つなぎっぱなしにすることになる。そういった大役を実施する目的や必要性に対応できるのは、米国の最大級のスーパーコンピュータ・センター、すなわちエネルギー省の研究所だけである。
エネルギー省の科学局や、ローレンス・リバモア国立研究所の1部門であるNERSCにとって基礎科学の計算施設は、基礎的な科学専用の世界最大の施設の一つだ。NERSCのスーパーコンピュータ資源の相当量(12%)が、グローバル気象変動の研究に割り当てられている。人類の将来にとって危急の問題に、ほぼ1億5000万プロセッサ時間の、高度にチューニングされた計算力が使われていることになる。
世代が進むごとに指数関数的に性能が強化されていくスーパーコンピュータのおかげで、気象モデルもより詳細になっていく。科学ライターのJon Bashorによると、1990年代の最も進んだグローバル・モデルでは、太平洋からロッキー山脈に至る米国西部は、気象に影響を及ぼす山々、砂漠や水の塊のような位相的特性がたくさん存在するのに、均一の陸地質量として扱われていた。その後の20年間のハードウエアとソフトウェアの進歩により、今日のモデルでは10km四方のブロックの解像度までに改良されており、さらに次世代になると2kmにまで詳細になるだろう。より詳細なモデルになるほど、より正確に予測できるのだ。
気象変動は今日の我々の惑星が直面しているもっとも差し迫った課題の一つであるがゆえに、その正確さは極めて重要である。人々はモデルが信頼できるのか、そしてどの程度までなのかを知りたがる。信頼性は特に、人為的な影響による気象変動の評価において極めて重要である。モデルは実世界の結果に対応した特定のシナリオに基づいて詳しく精査される。共通の評価手段は、すでに起きている気象シーケンスを"予測"することである。このような過去に遡った分析手法は、ボルダーにあるコロラド大学と 国立海洋大気庁の地球システム研究所に所属するil Compo に率いられた20世紀再分析プロジェクトで採用された。このプロジェクトには、NERSCの800万プロセッサ時間が提供された。
プロジェクトは、1871年から現在に至るまでの、大規模な異常気象のデータベースに寄るところが大きい。新聞の気象レポート、最初の数十年の陸地や海での観測、さらに技術が進歩して来て以降での航空機、衛星や他の様々なセンサーからの詳細な観測などである。最高の気象科学者のチームはこのデータを、仮想的な気象タイムマシンを作るべく、NERSCやテネシー州オークリッジ先進計算施設にあるスーパーコンピュータに放り込んだのである。
このモデルに基づくシミュレーションは、驚くべき予知性能を発揮したのである。"モデルは、多くの異常気象を正確に予測したのです。例えば、エルニーニョ現象の数々、大西洋岸を襲った1922年のKnickerbocker雪嵐(ワシントンDCにあったKnickerbocker劇場の屋根を崩壊させ、98人の死者と133人の負傷者を出したことで、名がついた。)、1930年代のDust Bowl、1938年ニューヨークで猛威を振るったハリケーン、といったことです。"と、Bashor氏は報告する。
単に"予測"を可能にしたというだけではなく、優れた正確さで計算されたのだ。Compoと彼のチームは、1800年以降の地球気象と気候変動のマップを完成させた。次に行うべきことは、本物の予測のために、特に将来の温暖化のパターンを予知するのに、このデータ同化システムを使うことである。
地球物理学研究学会誌の報告によれば、20世紀再分析プロジェクトのもとで進行中の研究は、1901年からグローバルな陸地温暖化が進行していることの独立的な確証を示している。人為的な要因によるグローバルな気候変動の強い証拠を提供しているのだ。これまでのところ、グローバルな気候温暖化は、長期間に渡る世界中の測定施設からの大気温度に基づいている。本研究プロジェクトはさらにまた、1901-2010の気圧など他の過去観測データも利用する。
"これは科学の本質そのものです。"と、Compoは述べる。"ここに一つの情報源から、Aという知見を得たとします。"、そこであなたは考えるでしょう。 '全く異なる情報源からも同じ知見が得られるだろうか?'と。我々はすでにデータセットを生成したので、気圧計から予測される温度が、温度計のそれとどれだけ近いかを見てみたのです。"
Compoによれば、 20世紀再分析プロジェクトは、過去、現在、将来の気象変動を確証をもって評価することに大いに役立ってきた。その主な変動や傾向が従来の気象モデルとの比較に供されることで、これらのデータセットに基づいた結果に、より安定性をもたせるのである。
"何らかの理由であなたが、グルーバル温暖化が起きていることを信じないとしても、この結果は、すでに20世紀初期から起きていることを結論づけるものなのです。”と、Compoは、記している。