世界のスーパーコンピュータとそれを動かす人々


5月 29, 2023

新HPCの歩み(第141回)-1996年(g)-

小柳 義夫 (高度情報科学技術研究機構)

Gordon-Bell賞の性能部門では、NWTを用いた流体力学が本賞を、GRAPE-4を用いた星の重力計算がHonorable Mention(佳作)を獲得した。Top500では、筑波大学のCP-PACS/2048がトップに輝き、2位はNWT、3位は東大のSR2201であった。最終日には”Toy Story” の製作過程の詳しい解説があった。

SC96(続き)

14) ASCI Challenge panel (I)
基調講演に続いて、ASCIについてのパネルが午後まで3コマ続けられた。最初の2コマだけ出席した。 10:30-12:00では、”The ASCI Challenge: Multi-TFLOPS Applications by 2002″ というパネル討論が開かれた。司会は、DOE(エネルギー省)のGilber Weigrand。このセッションは、ASCIが対象とする問題を明らかにすると述べ、まず、ASCI (Accelerated Strategic Computing Initiative) についてざっと解説した。

 ASCIとは、クリントンのビジョンに基づくもので、核実験禁止条約のもとで核抑止力を維持するために、核実験を計算機実験に置き換えようという計画である。このために、フルスケール・フルエネルギー・3次元フル物理のシミュレーションを行うとともに、そのためのモデルの研究も行う。核実験だけでなく、核兵器の貯蔵管理(stockpile stewardship)のために、素材の劣化、火災等の事故などの解析も行う。

 

まことにキナ臭い計画である。application-driven high-end computing のために、ついに核兵器まで持ちだしたか、という印象である。三浦謙一氏によると、大昔Illiac IV の時も(スケールは違うが)似たようなお題目が語られたという。Weigrandは具体的な計画について次のように述べた。

 この計画は、DOE傘下の国立研究所、計算機会社、大学および他の研究機関の協力によって遂行される。5つの戦略がある。

  (1) applications — 3D full simulation

  (2) computers

  (3) infrastructure

  (4) alliance — openness, collaboration

  (5) 1 program – 3 labs team — peer review and competition

 システムとしてはバランスが大切である。スピード、ネットワーク、I/O、メモリ、外部記憶。roadmap は以下の通り。

95-97

1+ TFlops

96-98

3+ TFlops

97-00

10+ TFlops

98-03

30+ TFlops

01-04 

100+ TFlops

 4~5個のalliance(共同研究グループというような意味か?)を作る。これは、multidisciplinary な共同研究である。研究テーマは、物理と計算機を結ぶものである。

 

会場には若い人が溢れていたが、alliance という言葉に誘われて、何かおこぼれに与れないかと、鵜の目、鷹の目で聞いていたようである。Allianceの一環として、1997年には、アメリカの5大学をASAP Initiativeに選定する。

続いて、T. F. Adams (LANL) が ASCI Applications Requirements と題して話した。まず、「stockpile は新兵器より面白い」と前置きして、このプロジェクトで想定している問題について述べた。

 扱う問題は、3次元、高精度(109 cells)、第一原理、フルシステム、シミュレーションである。目標は、

  (1) performance,

  (2) safety,

  (3) reliability,

  (4) remanufacturing and renewal

である。2005年までに5つのstrategies(?)を立てる。

 どのくらいの計算速度とメモリが必要か。3次元の radiation transport を考えると、各セルに500個の未知数があり、時間ステップは1 μsだから、4 TB, 4.1 TFlops が必要である。事故解析では、簡単なモデルでは、0.6 TB, 0.24 TFlops だが、少し複雑なモデルでは、9.4 TB, 7.8 TFlops となる。経年劣化は、高分子の老化や腐食などの化学変化を扱うので、100 M atoms を扱うには、30 TFlops でも30日掛かる。それから、タービン翼の破壊や、核物質の再加工には4 TB, 60 TFlops で数十日掛かる。

 

最後にRAGE (Radiation Adapitive Grid Eucledian code) で計算した衝撃波のビデオを上映した。

David Nowak (LLNL) は、Option Blue-Pacific の第一段階として設置したSP2がいかに有効に動作したかについてのべた。物質中の粒界の動きを100,000個の原子のシミュレーションで解析した例など。

Willam Camp (SNL) は、Option Red に基づいて、stockpile confidence を高めるための計算について話した。核兵器中の非核要素、核兵器の落下事故、衝突事故、火災事故などの安全性の解析。neutron generator の解析。

このあと、フロアや発題者の間で議論が行われた。

15) ASCI Challenge Panel (II)
続く午後13:30-15:00 のセッションでは、The ASCI Challenge: 100 TFLOP Platforms by 2002 と題して、計算機関係の発表があった。まず、司会者の Alex R. Larzelere (DOE) が、午前と重複するが、と言いながらASCIプロジェクトの解説をした。

 一口で言えば、2003年までに現在と比べて105倍のapplication speed を実現することである。即ち、1014 Flopsの演算性能 130 GB/sの相互接続網、5000 GB/s のI/O速度, 130 PB の外部記憶、 50 TBの主記憶。ロードマップとしては、

1+ TFlops /  0.5 TB

1997 完成

3+ TFlops /  1.5 TB

1998 完成

10+ TFlops /  5   TB

2000 完成

30+ TFlops / 10   TB

2001 完成

100+ TFlops / 30   TB

2003 完成

ただし、これは官民の共同研究開発であって、単なる調達ではないことを強調したい。(つまり、日本の会社が参入できなくても文句を言うなということらしい)。

 

つづいて、David Scott (Intel) が、Sandia National Laboratoryに建設中の Option Red 計算機について発表した。

 一口で言えば Pentium Pro (200 MHz) を使った Paragon のお化けのような計算機で、最終的に9072チップになり、ピーク1.8 TFlops peak となる予定である。2次元メッシュのParagonと違って、z-ring (shared MRC) トポロジ があるので、3次元である。xy面の両端は、I/Oノードやサービスノード。

 Pentium Pro 2個でひとつのノードを構成し、ボード当り2ノード。8個のノードでcard-cage unit を構成している。ソフトはParagonと同じで、light-weight kernel base。メッセージパシングとしては、NXやMPIの他にremote put/get もある。Fortran, C, C++, F90 の他にHPFもサポート。user environment としては GUI debugger がある。

 RASとしては、アプリケーションベースのMTBFが50時間、システム単位ではMTBFが4週間。Color change(構成の変更?)が30分でできる。このため、ECC, RAID, two-plane topology, redundant power supply, background system management を採用。

 LANL で開発された SWEEP3D のスピード実測(現在の700チップシステム、既に200 GFlopsが出ているとか)の紹介。完成すると、4列合計94個のキャビネットとなり、4536ノード、9072チップとなる。ネットワークは、800 MB/s(双方向)である。1列は来年1月に完成、2列は1月に出荷、3列は3月、4列全部が完成するのはそのあとすぐ(実際は7月頃のもよう)

 

続いて Dan Rice (IBM) が、LLNLで建設中のOption Blue-Pacificについて述べた。

 現在は、512ノードの従来型のSP-2(136GF、100GB、実際は2システムに分割)と、ノードに4-way の 604 のSMPを用いた4ノードのシステムが入っている。1997年中に、200 GB、585 GFlopsに更新し、1998終わりには、SST (Sustained Stewardship TeraFlops System) として、3.2 TFlops、2.5 TB メモリのシステム(講演では言わなかったが、IBM PC630 200 MHz 800 MFlops 8個からなるSMPを512ノード並べたシステムのようである)となる。これは、商品として売るより半年早い出荷である。実際には、open system と secured system の二つに分割して運用する。

 

最後に、Forest Baskett (Cray/SGI ← ママ) が、LANLに建設中のOption Blue-Mountain について説明した。

 SGI/Cray Productロードマップを示す。まず、MPP (T3E)とS2MP (Origin2000)が合流してコードネームSN1となる。そして、T3EとSN1とPVP (T90/J90)の3つ(!)が合流してSN2となる。

 ASCIは結局SN1マシンで、S2MP cc-NUMA(DSM)である。ソフトは、scalable OS と next generation programing tools である。ハードは、next generation MIPS chip をつかう。

 ID (initial delivery) は、97/2に256 processors, 100 GF のシステム。構成は、8個のR10000をSMPとしてhypercubeを組むもよう。

 TR (Technology Refleshment) としては、97/12 に768 processors, 400GFlops に。これは、6個でSMPを組んで128個つなぐ。

 SSTとしては、3TFlops、0.5TB(→1.5TB 1999)、75TB RAID、single system image.

 

Origin 3000がSN1だとの話もあるが、これが出たころCray部門はTera社に売却されたので、T3Eは無くならず、SN2も実現しなかった。

16) Petaflops Computing Panel
前に述べたように、NSF、NASA,DARPAは共同してPetaflops Computingの8つのプロジェクトを選定した。SC96でも21日(木)にはPaul Messina (CalTech)を座長としてパネルが開かれた。

a) Messinaはコンピュータ技術での困難を論じた。

Petaflopsを必要とする応用は実時間3D心臓モデルなどいくらもあるが、コンピュータ技術の限界が重要である。限界として、

  (1)半導体技術

  (2)アーキテクチャ

  (3)ソフトウェア(レイテンシ隠蔽と百万レベルのスレッド並列)

  (4)コスト、サイズ、消費電力

である。Teraflops levelでは、明示的なマルチプロセッシングが主流であり、並列性は粗粒度でプロセッサ数もそれほど多くなかった。Petascaleではどうなるであろうか。Petaflops Forum Frontiers 95, 96では、コスト、サイズ、消費電力などについて議論をした。結論として、Petaflops は、

  (1)15~20年後には可能、

  (2)6~13 M processorsで、1~3 GWであろう

  (3)コストが$100M~$1Bとなり問題となる

  (4)信頼性はどうにかなる

  (5)ソフトウェアが難しい

という予想。

 

歴史は繰り返すというか、エクサでも同じような議論が行われることになる。

b) Rick Stevens (ANL)は応用の分析をした。

主要な応用分野は以下の通り。

  (1) 材料シミュレーション、ナノスケール、製造過程のフルプラントシミュレーション、化学反応する流体。

  (2) 複雑な生体分子系の時間依存シミュレーション、学際研究、統合地球シミュレーションなど

  (3) 核兵器貯蔵、プラズマ核融合など

Bogoda bayでのPetaflops Workshopの結論として、

  (1) 多くの問題には共通点があり、学際的研究が縦横である。実時間シミュレーションが問題。

  (2) 対話処理、つまり巨大なシミュレーションのループの中に人間が入る(Human-in-the-loop)ことが画期的。

  (3) 議論となっているのは、OS、モデリング、数値計算法(不安定性)など。

 

c) Tilak Agervala (IBM)は”Feasibility of Ultra-High Performance Systems”と題して、システムのロードマップを議論した。12 GFlops/Processor、64way SMP、1300ノードで、1 PFlopsで2-3 MWに収まる。GWには行かないだろう。価格はムーアの法則でどうにかなる。

d) Peter Kogge (Notre Dame)は、PIM (Processor in Memory)について講演した。村上和彰のPPRAMみたいなアイデアである。

 現在のバリアは、物理的なものと、semantic なものとがある。DRAMの密度はどんどん上がりつつあり、PBというと、現在ではフットボール場3個分がいるが、2010年にはずっと小さくなる。PFlopsも6000個程度のCPUで実現できる。主記憶については、Bogoda bay の Petaflops Workshop でのアルゴリズムの解析によると、50%の応用は1TBで十分である。

 PIMとしては、例えば8プロセッサとメモリを1チップに収容することが考えられる。これにより、外部メモリがなければバンド幅とlatencyを大幅に改良できる。

 PIM architectureのスペクトルとしては、SIMD in memory, 1 chip system, SMP (MIMD+memory+coherency), MPP, “Tiling” of a chipなどいろいろ考えられる。これまでの試みとしては、Shamrock (Notre Dame), EXECUBE (IBM)などがある。2004年には、100TFlopsが、2010年には、1PFlopsのシステムができる。

 プログラミングモデルはどうなるか。PIM はstand aloneとしても使えるが、他の exotic CPU とともにintelligent memory としても使える。PIM = smart memoryである。PIM だけが good solution とは言わないが、これはCMOSとして不可避な方向である。

 

e) Thomas Sterling (JPL/Caltech)は、”Technology Driven Opportunities” と題して未来技術、とくに超伝導やホログラムメモリについて述べた。

  (1) 超伝導デバイス。2010年に1 GHzを実現するのに、半導体なら0.07μ(70 nm)が必要だが、超伝導なら0.3μでよい。

  (2) ホログラム記憶。TBの容量、低電力、高バンド幅(100 Gb/s)が可能。困難としては、レイテンシ(10k~100kサイクル相当)、starvation、オーバヘッド、衝突など。

  (3) 光接続。電線では多すぎる。ホログラム記憶とも相性がよい。

 

f) Fran Berman (UCSD)は、‟If Petaflops is an answer, what is the question?”と、例によって混ぜっ返した。

 一般社会からは、Petaと言ってもhigh-end の進歩だけだし、高いし、焦点が狭いという批判が出る。技術的には、データはどこから、プログラムはどう書く、可視化、記憶はどうする、どう使われるなど問題が多い。

 資金的には、有効な応用がなければならない。設計の段階から応用を組み込んでおかなければならない。メタコンピューティングは難しい(何を指しているのか?)

 

g) 最後にSteve Nelsonが”How important it is that Petaflops technology is commercialized?” と題して、Petaflopsの商品化の方向性について論じた。

h) 質疑応答

 Q:Rickの挙げた応用の中で、(1台のPFlops machineではなく)1000個の1 TFlops machine で解ける問題はあるか?

 A:degree of coupling の問題だ。

 Q:多数のプロセッサが有効に使えないのでは?

 A:原因は、(1) OSが悪い、(2) 1000個以上のプロセッサではパラダイムの変更が必要だ。

 Q:そうだが、10K以上のプロセッサを使うパラダイムは?

 A:数百までは、従来のパラダイムで行ける。それ以上はわからないが、まだ15年もあるから十分時間がある。

 

今から見ると、これもエクサスケールの話と結構似ている。

17) HPF BoF
恒例の HPF BOF が、20日(水曜日)の夜7時から開かれた。この時間は、ポスターレセプションが行われていたし、IBM、DEC、HPのパーティも始まっていて、出席者は少なかった。わたしも、ちょっとだけ出て失礼した。

まず、Ken Kennedy が、空港でトランスパレンシーをなくしたとか言いながら現状を述べた。コンパイラの未熟が問題である。HPF 2.0 では、dynamic features を標準から削除し、approved extensions を定義した。特に、irregular mapping を正式に取り入れた。多くのハードウェアやソフトウェアのベンダが取り組んでいる。NPBがHPFで書かれればさらに進むだろう。

続いて、Chuck Koelbel が、HPF2の概要を説明した。Fortran 95 はfor all construct を採用したので、もはやHPFで説明する必要はなくなった。さまざまな拡張とともに簡略化した。

標準化のところで述べたように、HPF version 2.0 の原案が10月20日に公開されていた。

18) 表彰式
21日(木曜日)の1:30-3:00は、表彰式のplenary sessionであった。まず、best student papersでは、7 人が表彰された。いずれも所属はアメリカ国内だが、名前から判断して、ほとんどがインド系、中国系、ギリシャ系、ラテン系などだった。筆者があるアメリカのVIPにそのことを言ったら、「それがアメリカの力じゃないか。」と反論された。その通りです。

計算科学分野に対する顕著な貢献を行った研究者を称えるSidney Fernbach Award は、”For innovative computational numerical methods to perform the first realistic computer simulations of the Earth’s geodynamo and its resultant time-dependent magnetic field”の業績に対しGary A. Glatzmaier (LANL) に与えられた。

Gordon Bell賞については次の項で。

表彰式に続いて、Eric Bloch (George Mason University) の “Supercomputers: Agent of change or victim of change?” と題した講演があった。5年前とスーパーコンピュータをめぐる状況がいかに変わったかということを述べた。変わった原因として

(1) change in technology: no longer top-down.
(2) change in architecture: chip level
(3) change in market: chaos

を上げていた。かつてはスーパーコンピュータの最新技術が汎用品に降りてくるというtrickle-down metaphorが語られたが、今やマイクロプロセッサの技術がスーパーコンピュータに使われるようになったと強調した。

19) Gordon Bell賞
今年も SC’96 で Gordon Bell Prize が発表された。前にも書いたが、性能部門でNAL NWT (Simulation of 3-Dimensional Cascade Flow (in jet engines) with a Numerical Wind Tunnel)が本賞、 専用計算機部門でGRAPE-4 (N-body Simulation of Galaxy Formation on a Grape-4 Special-Purpose Computer)がHonorable Mention(佳作)、価格性能比部門でCornell/MPI (Electronic Structure of Materials Using Self-Interaction Corrected Density Functional Theory)が本賞であった。プログラムによると、これ以外にFinalistsはいなかったようである。下記の最終結果のタイトルはプログラムとは異なり、数値が強調されている。

Peak Performance
First Place: Toshiyuki Iwamiya, Masahiro Yoshida, Yuichi Matsuo, Masahiro Fukuda and Takashi Nakamura, National Aerospace Laboratory (Japan); “ Fluid dynamics problem,” 111 Gflops on 166 processor Numerical Wind Tunnel

Honorable Mention: Toshiyuki Fukushige and Junichiro Makino, University of Tokyo; “Simulation of the motion of 780,000 stars,” 333 Gflops using the Grape-4 machine w/ 1,269 processors

Price/Performance
First Place: Adolfy Hoisie, Cornell University; Stefan Goedecker and Jurg Hutter, Max Planck Institute; “Electronic structures calculations,” 6.3 Gflops/$1M on an SGI Power Challenge with 6 MIPS R8000 processors

 

20) Top500(世界)
今でこそ一般の新聞も注目するTop500であるが、このころは静かなものであった。前に述べたように、日立と筑波大の協力により、CP-PACSはLinpackで368.2 GFlopsという記録を達成し、11月18日付けの第8回のリストでは見事1位の栄光に輝いた。2位はNWT (229.7)、3位は前回1位であった東大大型センターのSR2201 (220.4)であった。上位20位は以下の通り。性能はGFlops。前回の順位に括弧のついているのは修正ありで、増強やチューニングで性能が変化(原則は向上)したことを示す。ただし、17位のSX-4/32は、Rmaxを下方修正しMHPCCより順位を下げている。以前はRpeakを超えていた。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

1

筑波大学計算物理学研究センター

CP-PACS/2048

2048

368.2

614.4

2

(2)

航空宇宙研究技術所(日本)

Numerical Wind Tunnel

167

229.0

281.3

3

1

東京大学

SR2201/1024

1024

220.4

307.2

4

3

SNL

XP/S140

3680

143.4

184.0

5

4

ORNL

XP/S-MP 150

3072

127.1

154.0

6

5

日本原子力研究所

XP/S-MP 125

2502

103.5

125.1

7

6

アメリカ政府某機関

T3D MC1024-8

1024

100.5

153.6

8

7

高エネルギー物理学研究所

VPP500/80

80

98.9

128.0

9

九州大学

VPP700/56

56

94.3

123.2

10

ECMWF

VPP700/46

46

94.3

101.2

11tie

ERDC DSRC(アメリカ)

T3E

256

93.2

153.6

11tie

IDRIS(フランス)

T3E

256

93.2

153.6

11tie

Pittsburgh Supercomputing C.

T3E

256

93.2

153.6

14tie

8tie

Cornell Theory Center

SP2/512

512

88.4

136.2

14tie

8tie

IBM

SP2/512

512

88.4

136.2

16

12

Maui HPC Center

SP2/384

384

66.3

102.1

17tie

(10tie)

Stuttgart大学(ドイツ)

SX-4/32

32

60.6

64.0

17tie

(10tie)

日本電気府中工場

SX-4/32

32

60.6

64.0

17tie

大阪大学

SX-4/32

32

60.6

64.0

20

13

LANL

CM-5/1056

1056

59.7

135.0

 

21) Top500(日本) 
日本設置のマシンで100位以内は以下の通り。

順位

前回

設置場所

機種

コア数

Rmax

Rpeak

1

筑波大学計算物理学研究センター

CP-PACS/2048

2048

368.2

614.4

2

(2)

航空宇宙研究技術所(日本)

Numerical Wind Tunnel

167

229.0

281.3

3

1

東京大学

SR2201/1024

1024

220.4

307.2

6

5

日本原子力研究所

XP/S-MP 125

2502

103.5

125.1

8

7

高エネルギー物理学研究所

VPP500/80

80

98.9

128.0

9

九州大学

VPP700/56

56

94.3

123.2

17tie

10tie

日本電気府中工場

SX-4/32

32

60.6

64.0

17tie

大阪大学

SX-4/32

32

60.6

64.0

17tie

大阪大学

SX-4/32

32

60.6

64.0

22tie

14tie

日本原子力研究所

VPP500/42

42

54.5

67.2

22tie

14tie

名古屋大学

VPP500/42

42

54.5

67.2

26tie

17tie

遺伝研

VPP500/40

40

52.0

64.0

26tie

17tie

東京大学物性研

VPP500/40

40

52.0

64.0

39

23

オングストローム技術組合(日本)

VPP500/32

32

42.4

51.2

40

24

筑波大学

VPP500/30

30

39.8

48.0

41tie

24tie

海洋科学技術センター

SX-4/20

20

38.2

40.0

4tie

24tie

金属材料研究所

SX-4/20

20

38.2

40.0

41tie

24tie

トヨタ中央研究所

SX-4/20

20

38.2

40.0

44

28

理研

VPP500/28

28

37.2

44.8

46

日本原子力研究所

VPP300/16

16

34.1

35.2

50

(30tie)

国立循環器病研究センター

SX-4/16

16

30.71

32.0

54

35

NTT

T932/321024

32

29.4

57.6

56tie

37tie

日立エンタープライズサーバ部門

S-3800/480

4

28.4

32.0

56tie

37tie

気象庁

S-3800/480

4

28.4

32.0

56tie

37tie

東京大学

S-3800/480

4

28.4

32.0

74

50

東北大学

SX-3/44R 400 MHz

4

23.2

25.6

76

動力炉核燃料事業団

VPP500/16

16

21.7

25.6

77tie

52tie

北海道大学

S-3800/380

3

21.6

24.0

77tie

52tie

東北大学金属材料研究所

S-3800/380

3

21.3

24.0

81

54

京都大学

VPP500/15

16

20.3

24.0

88

59

分子科学研究所

SX-3/34R

3

17.4

19.2

91

日本大学

VPP300/8

8

17.1

17.6

98tie

(61tie)

ATR光電波通信研究所

SX-4/8

8

15.3

16.0

98tie

(61tie)

国土地理院(?)

SX-4/8

8

15.3

16.0

 

50位のSX-4/16や98位のSX-4/8もRmaxを下方修正している。

22) Top500 (BoF)
このSC96では、Top500のBoFが20日(水曜日)の13:30~15:00にDoubletree Hotel, Washington Roomであったが、表彰式はなかった。参加者も20名か30名。私がTop500のBoFに気づいたのはこれが最初であるが、Top500 BoFは2年前のSC94から始まっているとのことである。

上位受賞者のプレゼンについて何も準備していないらしく、始まる前にHans Meuerが会場にやって来て、筆者に「おまえは1位と3位の両方を知っているだろう。」というので、「知っているが、もうすぐProfessor Bokuが来るから、彼に聞いてくれ。」と言う程度のいい加減さであった。

 
   

Top500主宰者の分析によると、Top500リストに占める産業界のシステム数は減少の一途をたどり、1995年6月には86にまで減少した。その後は増加に反転し、今回は148まで回復したとのことである。ベンダ別、分野別、組織別、国別などの分析が行われた。産業界のスーパーコンピュータの主力は、SGI POWER Challenge、IBM SP/2、HP/Convex SPPの3種であり、産業界の148台のうちの75%を占めている。人口当りのFlopsなどというグラフもあった。1位がスイス、2位が日本、3位がアメリカだったと思う。Horst Simon (NERSC, LBNL) が茶々を入れて、「今度は、国民総生産当りのFLopsを出したらどうか?」

筆者や J. Dongarra や H. Simon は来年のプログラム委員会のためこの辺で中座した。この後、Supercomputing in Japan という発表があり、Siemens の人が概略を説明。cp-pacs については、94年と96年の Lattice 国際会議の論文と、計算物理学研究センターのwebページをもとに発表していた。実は、このwebページは会議の数日前に完成したばかりで、ちょうど役に立った。最後に、朴泰祐が、cp-pacs について、また SR2201 との関係などについて簡単に解説した。

その晩、Pittsburghの64階のステーキハウスにおいて、CP-PACS関係者でささやかな祝杯を挙げた(写真は記念誌の河辺峻の記事から)。松岡聡の姿も見える。

23) 最終日のイベント
すっかり人がいなくなった金曜日の午前の plenary talk は、Alvy RaySmith (Microsoft) の “The World of Entertainment and Computers” という講演だった。予想の通り、いろいろアニメーションのビデオが上映された。特に、コンピュータアニメーションを初めて本格的に使った”Toy Story” の製作過程の詳しい解説があった。なかなか面白かった。

その後、”Impact of the Telecommunications Act of 1996 on the HPCC Community” というパネルがあった。参加者はなお少なくなっていた。私も、Email room で最後のチェックをしていたのでちょっとのぞいただけである。censorship の問題、有料化の問題などが議論されていた。

午後は 雪のなかバスに乗ってCarnegie Museum を見に行った。圧倒された。

次回はアメリカ企業の動きなど。順風満帆に見えたCray Research社がSGIに吸収されたニュースは世界を驚かす。前年のTMCやKSRに続き、主として超並列のベンチャが続々経営危機で吸収や消滅を迎える。

 

left-arrow   new50history-bottom   right-arrow