HPCの歩み50年(第122回)-2005年(h)-
Top500のBoFでは11月のリストが発表されたが上位はすべて想定内であった。同時にJack Dongarraらが進めているHPC Challenge Project についての説明があった。(量子でない)超伝導コンピュータのパネルがあり、200 GHzを越えられると盛り上がった。最終日のパネル”The Six-Million Processor System”では松岡聡氏ががんばった。
SC|05(続き)
12) Top500 BoF
恒例により15日の5:15からTop500のBoFがあった。まずHorst Simon (NERSC, LBNL) が26回目のトップ10の発表を行い、3位までに表彰状を手渡した。20位までは以下の通り。
*は新顔。
順位 | 設置場著 | システム | コア数 | Rmax | Rpeak |
1 | LLNL | BlueGene/L | 131072 | 280.6 | 367.0 |
2 | IBM T.J.Watson | BGW | 40960 | 91.29 | 114.688 |
3* | LLNL | ASC Purple- p5 575 1.9 GHz | 10240 | 63.39 | 77.824 |
4 | NASA Ames | Columbia – SGI Altix 1.5 GHz | 10160 | 51.87 | 60.96 |
5* | SNL | Thunderbird – PowerEdge 1850 3.6 GHz | 8000 | 38.27 | 57.6 |
6 | SNL | Red Storm – Cray XT3 2.0 GHz | 10880 | 36.19 | 43.52 |
7 | 海洋研究開発機構 | 地球シミュレータ | 5120 | 35.86 | 40.96 |
8 | Barcelona SC | MareNostrum – JS20 Cluster | 4800 | 27.91 | 42.144 |
9* | ASTRON(オランダ) | Stella – Blue Gene | 12288 | 27.45 | 34.4064 |
10* | ORNL | Jaguar – Cray XT3 2.4 GHz | 5200 | 20.527 | 24.96 |
11 | LLNL | Thunder – Itanium2 1.4 GHz | 4096 | 19.94 | 22.938 |
12 tie | 産総研CBRC | Blue Protein – BlueGene | 8192 | 18.665 | 22.9376 |
12 tie | EPF Lausanne(スイス) | BlueGene | 8192 | 18.665 | 22.9376 |
14 | ERDC DSRC | Sapphire – Cray XT3 2.6 GHz | 4096 | 16.975 | 21.299 |
15 | COLSA | MACH5 – Apple Xserve 2.0 GHz | 3072 | 16.18 | 24.576 |
16 | 韓国気象庁 | Cray X1E | 1020 | 15.706 | 18.442 |
17 | ORNL | Cray X1E | 1014 | 14.955 | 18.333 |
18 | LANL | ASCI Q – AlphaServer SC45 1.25 GHz | 8192 | 13.88 | 20.48 |
19 | LLNL | p5 575 1.9 GHz | 2048 | 13.09 | 15.5648 |
20 | Virginia Tech | System X – 1100 Dual 2.3 GHz Apple | 2200 | 12.25 | 20.24 |
Simonが一言、”Most boring Top500.” 要するに、すべて「想定内」だったからであろう。Top10のうち、前回のリストから存続しているのは増強したRed Stormを含め6件である。地球シミュレータは7位に落ちてしまった。日本設置のマシンで100位以内は以下の通り。
順位 | 設置場著 | システム | コア数 | Rmax | Rpeak |
7 | 海洋研究開発機構 | 地球シミュレータ | 5120 | 35.86 | 40.96 |
12 tie | 産総研CBRC | Blue Protein – BlueGene | 8192 | 18.665 | 22.938 |
22 | 日本原子力開発機構 | SGI Altix 3700 Bx2 1.6 GHz | 2048 | 11.814 | 13.107 |
38 | 理研 | RIKEN Super Combined Cluster | 2048 | 8.728 | 12.345 |
51 | 名古屋大学 | PRIMEPOWER HPC2500 (2.08 GHz) | 1644 | 6.86 | 13.844 |
57 | 産総研グリッド研究センター | AIST Super Cluster P-32 | 2200 | 6.155 | 8.8 |
67 | JAXA | PRIMEPOWER HPC2500 (1.3 GHz) | 2304 | 5.406 | 11.98 |
77 | ニイウス | Blue Gene | 2048 | 4.713 | 5.734 |
85 | 京都大学 | PRIMEPOWER HPC2500 (1.56 GHz) | 1472 | 4.552 | 9.185 |
続いてStrohmaierが”Highlights”について述べた。今回のTop500への参入条件は1.636 TFlopsである。Rmaxの総計は2.3 PFlops。99年までからの外挿と比べるとトップは上にずれている。今後2009年にDARPA HPCSで2 PFlops のマシンが出現することが期待されている。
一つの違いは並列度である。これまでTop500の最大並列度はステップ関数的に振る舞ってきた。これまで最大はASCI Redであったが、BlueGene/Lがこれを追い抜いた。最小並列度は日立のSR11000で、38位で日立の社内にあるSR11000-K1 (Rmax=8893 GF, Rpeak=10752 GF) の「プロセッサ数」は80である。[といってもこれはノード数であってCPU数はその16倍のはずである。]
設置の国別で見ると、政府が積極的に支援しているアメリカが増えている(305件)。日本は劇的に減少し21件のみ、中国は急激に上昇し現在17件で日本に迫っている。ヨーロッパではイギリスがドイツを抜いた。システム製造国ではアメリカは多いが、イギリスも多い。日本は少し。
アーキテクチャではクラスタが支配的。プロセッサ・タイプではインテルが2/3を占めている。相互接続網では、GigEが多く(249件)、特に低位のシステムに多い。次にMyrinetが多い(101件)。OSはLinuxが支配的。
続いてStrohmaierはThe Berkeley Institute for Performance Studies (BIPS)について説明した。これはLBNLとUC Berkeleyとの共同研究プロジェクトで、
a) The Performance Evaluation Research Center (PERC) (責任者David Bailey)
b) The Berkeley Benchmarking and Optimization Group (BeBOP) (責任者Kathy Yelick と James Demmel)
c) LAPACK/ScaLAPACK project
d) Architecture evaluation research project (責任者Leonid Oliker と Kathy Yelick)
e) Benchmarking and performance optimization project
などを包括する。全体のリーダーはKathy Yelick, a professor of computer science at UC Berkeley である。日本の地球シミュレータに何度かベンチマーク調査に来ているのもこの活動の一環のようである。
続いてJack Dongarraらが進めているHPC Challenge Project についての説明があった。Top500の評価基準であるHPC Linpackは一種のピーク速度であり、メモリ系や相互接続網は一定程度以上の性能があれば関係しないので、コンピュータの実用性能とは必ずしも対応しないという反省から、single numberではない別のベンチマークを求める声は高かった。ただ皮肉なことに、Linpackはリアリティがないので、標準になりやすい面があった。アプリに近いリアリティのあるプログラムは多様性が山ほどあって「これが標準だ」という論理が建てにくい。だれか大物が「これだ」と言わないと。
Tennessee大学のJack Dongarra教授は新しいベンチマークHPC Challengeの開発を進めていた。9人の協力者の一人に筑波大学の高橋大介氏の名前を見つけた。いつから始めたかは不明であるが、SC2003で素案を示している。2004年5月17日~24日にKnoxvilleで開催されたCray Users’Group (CUG 2004)では既にまとまった構想を提示し、予備的な結果を提示している。HPC Challengeは以下の7つのテストを含む。
1 | HPL | The Linpack TPP benchamrk |
2 | DGEMM | 行列行列積(倍精度) |
3 | STREAM | メモリバンド幅(in GB/s) |
4 | PTRANS | Parallel matrix transpose |
5 | RandomAccess | The rate of integer random updates of memory (GUPS) |
6 | FFT | 倍精度複素FFT |
7 | 通信バンド幅とレイテンシ | いくつかの同時通信パターンに基づき、レイテンシとバンド幅を測定 |
HPC Challenge Awardsでは、7つのうち1 Global HPL, 2 Global RandomAccess, 3 EP STREAD (Triad) per system, 6 Global FFTに焦点を当てる。Class 1: Best Performanceでは4つのbenchmarksごとに勝者を決める。Class 2: Most Productivity では、4個~5個のカーネルについて最もエレガントな実装法に授賞する。このうち3個のカーネルはClass 1から取らなくてはならない。
2005年には、Class 1ではLLNL BlueGene/Lが4部門の1位を独占した。Class 2では、IBMのUnified Parallel CとCrayのCray MTA/Cの2件が受賞した。
13) Seymour Cray Award and Sidney Fernbach Award
SCではいろいろな賞が与えられるが、Sidney Fernbach AwardとSeymour Cray AwardとはIEEE Computer Societyが与える特別に価値のある賞である。例年、すべての賞が木曜日に授与されたが、今年はこの二つの賞だけは16日(水)の8:30からのセッションで与えられ、受賞講演が行われた。
Sidney Fernbach Awardは1992年にIEEE Computer Society 理事会によって制定され、1993年のSCから授与されている。大規模な問題を解くためにhigh performance computerを開発し利用することについてのパイオニアであったSidney Fernbach (LLNL) を記念して、革新的なアプローチによるHPC応用分野への寄与に対して送られる。今年の受賞者はLBNLの研究者John Bellで、「数値アルゴリズム、数学的コンピューター的ツールの開発と、燃焼、流体力学、物性分野における最先端の研究への応用における顕著な貢献」に対して送られた。
Seymour Cray Award は、1996年10月に自動車事故で亡くなったSeymour Cray を記念して、1997年に設けられ、SGI社(当時Cray Research Inc. を併合中)はそのため20万ドルを拠金した。この賞は、コンピュータ・システムについて革新的なアプローチによって寄与したものに与えられる。第1回は1998年。今年は、Cray X1 のチーフアーキテクトであったSteven Scott氏に与えられた。
去年のCray AwardもCray Inc. の共同創立者であったBurton Smith氏であった。二年続いてCray賞をCrayの人がもらうというのもちょっと変な気がする。
二人は30分ずつ受賞記念講演を行ったが、筆者はBellの講演の一部だけで所用のため退出した。
14) 地球シミュレータの性能評価
16日午後の講演で面白かったのは、Oliker (LBNL) et al の”Leading Computational Methods on Scalar and Vector HEC Platforms” である。これは4つの最先端応用プログラムを用いて、スカラー計算機とベクトル計算機のベンチマークを行い、ピークと実効速度とのずれを分析したものである。
用いた応用プログラムは、
1) FVCAM:大気モデリング
2) GTC:PICに基づく磁気核融合
3) LBMHD3D:MHDに基づくプラズマ物理学
4) PARATEC:物性科学
である。これを3種のスカラー計算機
1) Power 3 (375 MHz), SP Switch2, 16 CPU/node
2) Itanium2 (1.4 GHz), Quadrics, 4 CPU/node
3) Opteron (2.2 GHz), InfiniBand, 2 CPU/node
と4種類のベクトル計算機
1) X1 (800 MHz), 4 CPU/node
2) X1E (1.13 MHz), 4 CPU/node
3) Earth Simulator (1 GHz), 8 CPU/node
4) SX-8 (2 GHz), 8 CPU/node
上で性能を測定したものである。詳細は論文を見て頂くとして、全体としてベクトル計算機がこのすべての応用について、優れた総合性能を示すことを見いだした。現代のベクトルパラレル計算機は顕著なポテンシャルをもつ。アメリカ人もベクトルを見直せと言いたいようである。
15) 超伝導コンピュータ
17日10:30からはパネル”Superconducting Technology Assessment”に出席した。ModeratorはGeorge R. Cotter (DoD)の予定であったが、実際はTom Sterlingが司会をしていた。日本からのパネリストはいなかったが、このパネルではかなり日本の研究が引用されていた。
a) Tom Sterling (Lousiana State University, 8月にCalTech/JPLから移った)
Top500は指数的に上昇している。SIA roadmapも指数的な進歩を予言している。しかし技術的に可能かどうかは疑問がある。しかし超伝導による論理素子では243 GHzという記録が出ている。私は1999年にHTMTというSFQ (Single Flux Quantum)に基づくペタフロップスの計算機を提案した。NSAは”Superconducting Technology Assessment Report“を発表した。議論したい問題は
1)超伝導素子を開発してほしいというユーザからの需要はあるか
2)アーキテクトは、実現可能でプログラム可能なシステムを開発できるか
3)超伝導素子を使ってシステムを作るという挑戦に挑む会社があるか
4)超伝導スーパーコンピュータを作る際の政府の役割は何か
ということである。[私見であるが、この4つの質問は京速計算機にも当てはまる]
b) Arnold Silver (independent consultant)
氏はまずRSFQ (Rapid Single Flux Quatum)の技術の現状を紹介した。システムは3つの温度領域からなる。一つは4KのRSFQ論理素子およびメモリ、中間に40-70Kの領域、そして室温の領域である。CMOSとSFQを比較し、「電子であるところは同じ」と述べたが当たり前ではないか。
RSFQ技術は既に開発可能な所まで来ている。特徴は超高周波数(50-100 GHz)、低消費電力、クロック周波数で通信が可能なことなどである。すでに、LSIウェハーはでき、CADも可能で、チップのデザインがなされれている。複雑なチップもいくつか報告されている、といくつかの例を示したが、一つは日本からのものであった。
私の技術評価としては、代替技術として有望だとは思うが、まだ成熟した技術とは言えず、産業界のインフラもない。必要なことは研究ではなく、技術開発である。
リスクとしては、超低温領域との通信のバンド幅である。低熱負荷で何か可能か。ファイバーという案もあるが光のパルスもエネルギーをもっている。
技術のインフラを開発することが重要である。ウェーファー技術、CADツール、MCM、3D実装、極低温冷却技術など。
CRAM (Cryogenic RAM)の実証はすでになされている。
c) Mikhail Dorojevets (State University of NY)
RSFQの基礎的な実験データを示し、100 GHzは実現出来るだろうと述べた。
(1)セルライブラリ
今1μプロセスが日本で実現している(ISTECの超電導工学研究所)。RSFQでは大域的な同期は出来ないので、ultrapipeliningを用いる。レイテンシをどう隠すか。
(2)メモリ
pulse-controled RSFQを用いて、latch, FIFO Queue, on-chip RAM, off-chip RAMなどが作られている。3つのプロジェクトがある。
(ア)SPELL (HTMTのため、1997-99)
(イ)FLUX-1
(ウ)COPE1(これは日本?)
(3)インターコネクト
共有バスは使えないので、超高速スイッチが必要になる。
d) Ted Van Duzer (UC Berkeley) “Cryogenic Memories for RSFQ Ultra Higfh Speed Processing”
チャレンジは50 GHzのプロセッサにつなぐメモリである。4Kの領域にはregister, cache, off-chip memoryが置かれる。4K off-chip memoryの可能性としては3つのの可能性がある。
(ア) Hybrid JJ-CMOS — 外とのインタフェースが難しい。
(イ) SFQ memory — ISEC05で日本からの報告があった。10 GHzの動作周波数での消費電力は、64Kbで0.7 mW、256Kbで3 mW、1 Mbで12 mWであった。
(ウ) Josephson MRAM — 一つはfield-switched MRAMで、line currentに10mAも必要なのが欠点。もう一つはSMT (Spin Momentum Transfer) MRAMである。
40-77KでのRAMとしては、DRAM without refreshing(低温なのでリークが小さい)やMRAMがある。
e) Burton Smith (Cray) ”System Balance and Fast Clocks”
私は超伝導の専門家ではないが、システムのバランスの観点から意見を述べたい。アーキテクトの目から見ると問題はレイテンシである。ベクトル処理も、マルチスレッドも、ある種のデータフローもそれぞれレイテンシの問題を解決している。超伝導では、高速でマルチポートのレジスタファイルが必要である。
いろんなチャレンジがある
(ア) バンド幅チャレンジ--Cu or cold Cu, 高価である
(イ) 時間的局所性のチャレンジ
(ウ) Thread weight challenge [何を言いたいのか不明]
(エ) Programmability challenge これが最大の問題
16) 表彰式
17日(木)3:30からのセッションにおいて、FernbachとCray以外の授賞式が行われた。
a) Gordon Bell Prize:
この賞はhigh-performance computers の実用的利用に対して授与される。今年は、6つの論文がfinalistsとして発表された。通例では、革新的利用、ピーク速度、費用性能比の3つのカテゴリーで授与されてきたが、今年は一つの論文だけに賞が与えられた。案の定BlueGeneであった。
“100+ TFlops Solidification Simulations on BlueGene/L”
Authors: Frederick H. Streitz, James N. Glosli, Mehul V. Patel, Bor Chan, Robert K. Yates, Bronis R. de Supinski (Lawrence Livermore National Laboratory), James Sexton, John A. Gunnels (IBM)
このほか二つほどの論文がHonorable mention(いわば佳作)として言及されたようであるが、公式記録には残っていない。finalistsに残った日本のグループの論文
“16.447 TFlops and 159-Billion-dimensional Exact-diagonalization for Trapped Fermion-Hubbard Model on the Earth Simulator” Susumu Yamada, Toshiyuki Imamura, Masahiko Machida
は惜しくも受賞を逃した。11月15日朝日新聞夕刊で「理論上摂氏300度で超伝導が可能」であることを示したと紹介されていた
b) Best Technical Paper Award :
優秀論文賞としては次の2論文に授与された
“High Resolution Aerospace Applications using the NASA Columbia Supercomputer.”
Authors: Dimitri J. Mavriplis (University of Wyoming), Michael J. Aftosmis (NASA Ames Research Center), Marsha Berger (Courant Institute)
“Full Electron Calculation Beyond 20,000 Atoms: Ground Electronic State of Photosynthetic Proteins”
Tsutomu Ikegami, Toyokazu Ishida, Dmitri G. Fedorov, Kazuo Kitaura, Yuichi Inadomi, Hiroaki Umeda, Mitsuo Yokokawa, Satoshi Sekiguchi (National Institute of Advanced Industrial Science and Technology)
後者は産業技術総合研究所のグリッド技術研究センターのグループである。SCでは論文が採択されるだけでも栄誉なのに、優秀論文賞を獲得したことは大きな快挙である。日本からの投稿では初めてである。
c) Best Student Paper:
“Programmer Productivity: A Case Study of Novice Parallel Programmers.”
Author: Lorin Hochstein (University of Maryland)
d) Best Research Poster:
“Ultra-Low Latency Optical Networks for Next Generation Supercomputers.”
Authors: Benjamin A. Small, Odile Liboiron-Ladouceur, Assaf Shacham, Keren Bergman (Columbia University); Carl Gray, Cory Hawkins, David C. Keezer, Kevin P. Martin, D. Scott Wills (Georgia Institute of Technology); Gary D. Hughes (Laboratory of Physical Science)
e) HPC Analytics Challenge Award :
HPC Analytics はSC|05で初めて登場したイニシアチブであり、HPCで用いられるデータ解析や可視化の革新的な方法論を、複雑な実世界の問題を実際に解くことによって実証する。6グループが参加し、次の2グループが受賞した。
“SPICE: Simulated Pore Interactive Computing Experiment”
Authors: Shantenu Jha, Peter Coveney, Matt Harvey (University College London), Stephen Pickles, Robin Pinning (University of Manchester), Peter Clarke (University of Edinburgh), Bruce Boghosian (Tufts University), Charlie Catlett (TeraGrid), Charles Laughton (Nottingham University), Rob Pennington (NCSA/TeraGrid), Sergiu Sanielevici (Pittsburgh Supercomputing Center), Jennifer Schopf (Argonne National Lab), Richard Blake (CCLRC Daresbury)
“Real Time Change Detection and Alerts from Highway Traffic Data”
Authors: Robert L. Grossman, Michal Sabala, Anushka Aanand, Pei Zhang, Jason Leigh, David Hanley, Peter Nelson (University of Illinois at Chicago), John Chaves, Steve Vejcik (Open Data Partners), John Dillenburg, Vince Poor (Princeton University)
なお、日本原子力研究開発機構システム計算科学センター中島憲宏らは、原子力発電施設の地震時の応答をシミュレーショする際に、ITBLを用いて異なる複数のスーパーコンピュータを連携処理させて解析を高速化する手法を実現し、Honorable Mention(佳作)として表賞されたとの発表があった。
f) StorCloud Award
StorCloudの高度利用に対する賞。6チームがエントリーした。3種類の賞が与えられた。
(ア)Best Overall Performance – PNNL
“PNNL Computational Chemistry Simulation”
Authors: Kevin Regimbal, Ryan Mooney (Pacific Northwest National Laboratory), Evan Felix.
このチームは会場から自分の所(割に近く)まで、画像処理のデータを20 Gbit/s の速度で転送した。
(イ) “Most Innovative Use of Storage in Support of Science” – AIST
“High-performance KEKB/Belle data analysis using Gfarm Grid file system” by Osamu Tatebe, Nobuhiko Katayama, Satoshi Matsuoka, Satoshi Sekiguchi, Hitoshi Sato
産総研のチームは、自家製のハード(MegaProto)の上に自家製のソフトウェア(Gfarm)を実装して、加速器実験に必要な、柔軟で高性能は記憶装置のインフラを構築した。本賞ではないが、高く評価されたことはすばらしい。
(ウ) “Best Deployment of a Prototype for a Scientific Application” – LBNL/ NERSC
“TRI-Data Storm” by William Baird, Jonathan Carter, Michael Wehner, Tavia Stone, Cristina Siegerist, Wes Bethel
このLBNLのチームは、気候モデルのために広域のシステムを構築した。
g) Bandwidth Challenge
バンド幅チャレンジはSC2000に始まり今年はすでに6回目である。エントリーは9チーム。
(ア) 本賞には、QWESTから$5000の賞金が出る。
“Distributed TeraByte Particle Physics Data Sample Analysis”
Authors: Julian James Bunn, Harvey Newman (Caltech), Les Cottrell(SLAC), Don Petravik, Matt Crawford (FNAL)
(イ) Most Inovative Use of New Technology
“Wide Screen Window on the World: Life Size HD Videoconferencing”.
Jeremy R. Cooperstock, John Roston, Wieslaw Woszczyk (McGill)
このチームは、シアトルとモントリオールの間のHDTVビデオ会議のレイテンシを減少させ、両地にいる演奏家の間の両方向の同期を可能にした。
(ウ) Fastest IPv6
“Data Reservoir on very-long-distance IPv6 / IPv4 network”.
Kei Hiraki (Univ. of Tokyo), Akira Kato (WIDE), Mary Inaba, Junji Tamatsukuri, Makoto Nakamura, Yutaka Sugawara, Nao Aoshima (Univ. of Tokyo), Ryutaro Kurusu, Masakazu Sakamoto, Yukichi Ikuta, Yuki furukawa (Fujitsu)
IPv6/IPv4を用いて30,000kmの通信で6.84 Gbit/sの速度を達成した。このグループは2002年から連続して受賞している。
なお、バンド幅チャレンジには、日本からあと2チームが参加した。
“Secure Remote File System for HPC” N. Fujita et al. (JAXA and Fujitsu)
“A Challenge to Real-Time Visualization for 3D Computer Simulations and Satellite Observations for Space Weather” K. Murata et al. (Ehime U. and NICT)
(エ) Tri-Challenge Award:
SC|05の3つのチャレンジ、HPC Analytics, StorCloud and Bandwidth Challenge、すべてに参加し、総合点で最高を得たRobert L. Grossman, National Center for Data MiningにはTri-Challenge Awardが与えられた。なおこの賞は今年限りとのことである。
17) Panels
18日(金)は最終日で、Workshopなどの他は午前で終了する。午前中には2つずつ並列で4つのパネルが設けられた。
8:30AM – 10:00AM “Computing Beyond CPUs: Strategic Directions in HPC Architectures”
Jeffrey Vetter (Chair), Steve Miller, Michael Parker, Jon Huppenthal, Simon McIntosh-Smith, Kent Gilson, John Johnson
8:30AM – 10:00AM “The Six-Million Processor System”
Wu Feng (Chair), C. Gordon Bell, Carl Christensen, Satoshi Matsuoka, James Taft, Allan Benner, Srinidhi Varadarajan
10:30AM – 12:00PM “Return of HPC Survivor — Outwit, Outlast, Outcompute”
Cherri M. Pancake (Chair), Burton Smith, Cleve Moler, Barbara Chapman, Rusty Lusk, Marty Itzkowitz, Al Geist
10:30AM – 12:00PM “Tour de HPCycles”
Wu Feng (Chair), Allan E. Snavely, David H. Bailey, John (Jay) Boisseau, Bob Ciotti, Douglass E. Post, Candace Culhane
2つめのパネルでは松岡聡ががんばった。詳しくは筆者の報告参照。
18) 余談
会議後にいくつかの事件が起こった。会議終了直後の20日(日)に、隣町タコマのショッピングセンターで男がライフルを乱射し、CD店で人質を取って立てこもった事件があった。日本のニュースではワシントン州としか言わなかったので他人事だと思っていたが、タコマと聞いて青くなった。会期中でなくてよかった。
また、26日(土)夕方、シアトルのダウンタウンとシアトルセンター(公園で、サイエンスフィクション博物館や「スペースニードル」というタワーなどがある)とを結ぶモノレール(1マイル程度、$1.75)で、車両同士の接触事故があった。Fifth Avenueは閉鎖され、救助隊が出て大騒ぎだったそうだ。接触でドアがむしり取られ、ガラスの破片で2人が軽傷を負ったとか。筆者も滞在中は使っていたので、くわばらくわばら。
次回はアメリカの企業の動き。