世界のスーパーコンピュータとそれを動かす人々


10月 20, 2014

シミュレーションの世界で情報爆発は起きている?(1)-現状

工藤 啓治

シミュレーションのデータに関して、面白い見方があるので、書いてみましょう。過去30~40年コンピュータの性能が、指数関数的に伸びているということは、メーカー情報や市場調査などでよく目にします。例えば、下記に示した、NEDOの公開情報を見ると、最大性能の伸びは、10年後ごとに1000倍のスケールに乗っていることがわかります。性能の単位が、1000倍ごとに、Mega(10の6乗)=>Giga(10の9乗)=>Tera(10の12乗)=>Peta(10の15乗)というぐあいに、時代ごとに変化していることにも現れています。

http://www.kogures.com/hitoshi/history/super-computer/

http://www.nedo.go.jp/content/100085050.pdf

それでは、その中身はどうなんでしょうか?中身というのは、どういう使われ方をしているか、ということですけれど、当然ながらかなり機密の内容ですから、個別の事例や成果以外、よほどオープンな研究機関や企業でもその全貌が開示されることはまずありません。ただ、平均計算時間と計算回数の頻度分布がわかれば、結構いろいろなことが推測できるのです。

ここでは、製造業の代表的なシミュレーションである、自動車の衝突解析に注目して見ましょう。学会論文や企業セミナーの過去事例を見ていくと結構、モデル規模は開示されていて、実は、10年ごとに10倍のスケール線に乗っていることがわかるのです。25年前は、数万要素、15年前は、数10万要素、5年前からは数100万要素のラインに乗り始めています。

上記の数字を使って、とても大雑把な仮説をしてみます。企業がシミュレーションのために使うコンピュータ性能が平均して、10年ごとに1000倍伸びていて、一回あたりのモデル規模が10倍伸びているものとすると、それを埋める100倍は、計算回数の伸びに帰着することになります。これは何を意味するのでしょうか?

ドイツの自動車会社が、過去7年の計算回数の増加の内訳を分析した例があります。それによると、モデルの種類が平均2倍、評価性能の種類が3倍、組合せ種類(ケース数)の増加が20倍で、合計すると2x3x20=120倍になっているという試算です。7年でこの数字ですから、10年ではもっとですね。すなわち、100倍以上の計算回数の伸びは、実際の企業での観測でも、裏付けられているということなのです。

記事が長いので、次回は、その背景を探り、たいへん深刻な課題が潜んでいることを議論してみます。

design-sim-1

*本記事は、Facebookページ「デザイン&シミュレーション倶楽部」と提携して転載されております。