提 供
【わがスパコン人生】第23回 小長谷明彦
第23回 小長谷明彦
この計算機じゃないと動かないというプログラムを動かすのが本来のスパコン
小長谷明彦先生が実用化を目指し、日々研究を続けられている「分子ロボット」は、医療、農業、エネルギー分野などが抱える多くの問題を解決に導く、無限の可能性を秘めています。 大学時代には情報処理を学び、大学卒業後に入社したNECでも並列コンピュータアーキテクチャの研究を行っていた小長谷先生が、バイオや分子ロボットに出会ったきっかけはどのようなものだったのでしょうか?また、分子ロボットの実用化のためには、どういったスパコンが必要なのかお聞きしました。
鳥の目のごとく世界を俯瞰して欲しい
―先生の幼少期からのバックグラウンドを教えてください。
出身は東京の杉並区です。小さい頃はよく近所の子供たちと外遊びをしていました。家では色々と工作をしていた記憶があります。プラモデルもよく作っていました。小学生の頃は、宿題はきちんとやっていましたが、勉強はあまりせず、遊んでばかりいたと思います。
中学校と高校の頃は完全に理系で、数学や理科の方が得意でした。浪人時代には予備校の模擬試験の数学で100点を取ったこともあったので、自分では数学が得意だと思っていました。ところが、大学へ行ったら全然ダメで・・。それで、自分には数学の才能が全くないことに気付いて、情報処理へ行きました。
―それまで計算機に触れたことはありましたか?
大学へ入るまで計算機に触れたことはなかったです。当時は大学に16ビットのいわゆるミニコンが置いてあって、みんなでコンソール端末からキーボードを打ちながら使っていました。プログラムを入力するのに、紙テープやパンチカードを使っていた時代でした。
大学へ入学した1975年当時は、日本全体でもまだ情報処理という学問がようやくでき始めたホヤホヤの頃です。東京工業大学の情報科学科は理学部の中にありましたが、できてまだ5年目くらいでした。ですから、まだ世の中にコンピュータを使っている人がそれほどいなくて、そんな時代に情報処理の世界に入ったので、何もかもが新しかったです。そもそも、プログラミングがまだ紙ベースで、プログラムを紙テープに穴をあけて出すとか、紙のカードにパンチャーを使って穴をあけて読み込ませるとか、とにかくデバッグが大変でした。
大学時代に一番興味を持っていたのが並列処理です。大学院でもデータフローアーキテクチャに関する修士論文を書きました。NEC入社後にマサチューセッツ工科大学(MIT)のデータフロー計算機の大御所だったArvind先生の研究室に留学したのですが、実は大学生の頃からそういう新しい計算モデル、並列計算モデルに興味がありました。
―大学卒業後に入社されたNECでのことを教えてください。
修士課程修了後にNECに入社すると、中央研究所に入所し、コンピュータシステム研究部に配属されました。NECに入社して最初の2年間くらいは大学で学んだ並列コンピュータアーキテクチャの続きのようなことを研究していました。
その後、1982年に新世代コンピュータ技術開発機構(ICOT)が設立され、第五世代計算機プロジェクトという国家プロジェクトが始まりました。このプロジェクトは論理型言語(Prolog)を使ってAIを実現することと、論理型言語を高速に実行する推論(AI)マシンを開発することを目標としていて、そこにNECのチームとして参加しました。
NECのチームは高速な逐次型推論マシンを開発することを目標として、実際にハードから作りました。第五世代プロジェクトは10年続きましたが、最初から最後まで関わることができました。私自身、大学時代からAIには興味があって、記号処理言語であるLISPをよく使っていました。
プロジェクトの前期中期は逐次型推論マシンを開発していましたが、途中で1年間MITに留学する機会を得ることができました。留学先のMITではデータフロー計算機の研究をするはずだったのですが、ある日、MITの学生のひとりが遺伝子配列のマッチングを並列に解くという研究発表をしたのです。そこで初めて遺伝子配列というものを知り、DNAの遺伝子配列情報を解析するという話が結構面白そうだなと思い、データフロー計算機の研究を放り出して、遺伝子や分子生物学の本を読み漁り、バイオの世界にはまっていったのです。
帰国後、上司に「これからは遺伝子を研究したい」と言ったら、なんで会社で遺伝子の研究をするのだと呆れられました。それは当然ですよね。コンピュータを作るのが専門の研究部でしたから。
ところが、不思議なことに、ちょうどその頃、アメリカでヒトのDNAの中にある約30億個の全塩基配列を全て解読するというヒトゲノム計画が、世界的なプロジェクトとして立ち上がったのです。30億塩基のゲノム配列の中に埋め込まれている遺伝子情報を解析するためには高速な計算機がないとできません。そこで、第五世代計算機プロジェクトの中で推論マシンの応用のひとつとして遺伝子配列解析をするという話が持ちあがりました。NECも手伝うことになって、急に遺伝子配列解析を仕事としてすることになりました。
ですので、推論マシンを開発する、並列推論マシンのOSを作る、遺伝子解析をするという3つ仕事を同時並行的に研究していました。
第五世代計算機プロジェクトのあとは、NECが独自に開発していたCenjuというマイクロプロセッサを使った並列マシンの開発に関わりました。Cenjuは元々回路シミュレーション専用マシンとして開発されていたので、OSやソフトウェア環境がありませんでした。Cenjuを並列マシンとして製品化するためにはOSがないと困るということで、当時の最先端のOS技術であったマイクロカーネルOSをCenjuの上に構築するというプロジェクトを担当しました。また、当時、メッセージパッシングインターフェイス(MPI)という並列処理のためのプロセッサ間通信の標準化が世界的に注目されていて、MPIをCenjuに実装しました。
―NECを退社された後に移られた北陸先端科学技術大学院大学や理化学研究所でのことを教えてください。
1990年頃に遺伝的アルゴリズムという探索手法が注目を集めていて、その関係で、東京工業大学から論文博士を取得しました。論理型言語、推論マシン、知識ベース、遺伝子情報処理、遺伝的アルゴリズムと盛りだくさんでしたが、第五世代計算機プロジェクトでの研究成果をまとめて、いろいろな先生にお世話になりながら、無事、博士(工学)を取得することができました。その後、やはり、第五世代計算機プロジェクトでの遺伝子解析研究の関係で1997年に北陸先端科学技術大学院大学へ教授として就任しました。
当時、北陸先端大では、知識科学研究科という知識そのものを研究対象とした全く新しい研究科を発足している最中でした。知識科学研究科には、情報系の学生だけでなく、社会人学生や芸術関係の学生もいました。色々なバックグラウンドを持つ学生たちを教えなければいけませんでしたが、知識科学研究科は暗黙知と形式知の融合から「知識を創造する」ということをプリンシプルとしており、情報科学を含む複数の分野の融合が新しい学問を切り拓くということをまさに実践した、北陸先端大らしい研究科でした。
北陸先端大では遺伝子情報解析の研究をしていましたが、日本でもゲノム解析のためにバイオインフォマティクスが注目されて大きな予算が付くようになり、理化学研究所(理研)のゲノム総合研究センターという研究グループから声を掛けて頂きました。
理研ではバイオインフォマティクスの研究がメインでしたが、ゲノム配列を解析するためには一つの研究機関が持つ計算機では処理しきれないような大規模な計算をしなければいけませんでした。この問題を解決するために、ちょうどその頃、高性能計算の分野で注目されはじめたグリッドという、今でいうクラウドのような分散並列処理をオープンプラットフォームで実現することを目的としたグリッドプロジェクトを立ち上げました。色々な大学や研究機関がそれぞれ並列マシンを持っていましたが、ここの並列マシンのパワーでは足りないときに、グリッドを使ってネットワーク越しに複数の並列マシンを束ねてゲノム配列を解析する技術を開発していました。
1999年には、情報系でゲノム解析やバイオインフォマティクスを研究している研究者や企業が集まって、グリッド技術や並列処理をうまく活用し、その成果の産業化を促進するために並列生物情報処理イニシアティブ(IPAB)というNPOを立ち上げました。
あの頃は高性能計算の研究者の間ではグリッドが注目を集めていて、今の日本の主だったスパコン関連の研究者も当時はグリッドを研究していたと思います。一方、特定の応用に関しては桁違いに速い計算機が必要で、その典型例として、地球シミュレータのようなスパコンがありました。そういうスパコンは別格として、より安価で、もう少し汎用的に使える高性能計算機としてマイクロプロセッサを使った並列マシンが位置付けられていました。グリッドはそのような並列マシンをさらにネットワーク上で束ねて使うというコンセプトです。大規模な問題を解くには分散並列処理がこれからは重要になるだろうと考えて、皆、グリッドに注力したわけです。
グリッドは分散並列処理だけでなく、ネットワーク共有ファイルシステムやネットワーク会議システムなど様々な技術にも取り組んでいました。今では、ネットワーク会議やネットワークファイル共有が普通に使われていますが、そういったものの前身になるような情報処理技術がグリッドの中にありました。クラウドを含めて、グリッドで研究されていた技術やコンセプトは形を変えて、現代の情報通信インフラとして様々な形で活かされていると思います。
無限の可能性を秘めた分子ロボット
―先生が研究されている分子ロボットとの出会いを教えてください。
理研を辞めたあと、2009年に東工大の教授に就任しました。当初、それまで研究していたバイオインフォマティクスを続けようと思っていましたが、2010年にDNAを使ってロボットを創ることをテーマにした分子ロボット研究会が、たまたま東工大で開催されました。面白そうだと思って、顔を出したことが、分子ロボットの研究に手を染めることになったきっかけです。
―ロボットと聞くと、ドラえもんや鉄腕アトムが思い浮かびますが、分子ロボットとはどういうものでしょうか?
普通の顕微鏡では見えない大きさです。今でいうと、コロナ予防のためのmRNA(メッセンジャーRNA)ワクチンの直径が80-160ナノメートルなので、DNAで作った分子ロボットはこのくらいの大きさになります。アメーバ型分子ロボットになると直径10マイクロメートルくらいの大きさになるので、その百倍くらいの大きさになります。
多くの人はロボットと聞くと普通は電子機械式で、金属の手足を持っていてコンピュータで制御して動くような人工物を想像します。分子ロボットはそうではなくて、人間の体と同じようにDNAとかタンパク質などの生体分子から構成されています。基本的に人工物が「感覚」「知能」「運動」の三大機能を持てば「ロボット」と呼べます。生体分子から創られていて「感覚」「知能」「運動」の機能を持つ人工物ですので、「分子ロボット」と呼んでいます。
―分子ロボットができると、どのようなことが可能になりますか?
分子ロボットの何が一番すごいかと言うと、生物と同じ生体分子(DNAやタンパク質)で創られていることです。そのため、人や作物との親和性は高いと言えましょう。体の中で病気を治す分子ロボットを創ることも夢ではありません。さらに、これを実現することが良いかどうかは別として、RNAとかDNAを分子ロボットに組込むことで遺伝子操作をすることも原理的には可能となります。
身体の中にDNAやRNAを注入することについては、当然、倫理的な問題があります。ただ、もう、皆さん、コロナワクチンを接種しているではないですか。このことは、体の中にDNAやRNAを入れること自体は、コロナ禍という緊急事態下ではありますが、とりあえず大丈夫という話になってしまったと理解しています。ある意味、皆、分子ロボットのようなものをすでに接種している。このことは、安全で体に本当に良いことが証明できれば、分子ロボットのようなもので病気を治すような時代がきてもおかしくないことを示唆しています。
あいにく、コロナ禍で研究は中断されてしまいましたが、一型糖尿病を治すために、膵島細胞の代わりをする分子ロボットを創る研究をしていました。実際に人工的に膵島に近い働きをする分子ロボットの開発が進んでいました。もちろん、実用化にはまだまだ多くの課題を解決する必要がありますし、時間もかかりますが、分子ロボットによる医療応用は可能だと信じています。
分子ロボットは、2012年に大きな研究プロジェクトが始まり、基礎研究にはこれまでに大きな予算が投入されてきましたが、実用化はまだまだ進んでいません。特に日本だと、今はまだどうなるか分からないから、企業はまだ手を出せない状態です。安全で色々なことに使えるということがわかれば、応用はいくらもあります。医療、農業、エネルギー問題などに活用していくことができると思っています。潜在的なポテンシャルは凄くあると感じています。
分子ロボットの実用化に向けて、今、注力しているのが分子ロボットの合理的設計です。薬の開発もタンパク質や小分子の構造情報を用いた合理的設計が主流になっています。分子ロボットの設計も経験と勘を頼りに実験していたのでは時間ばかりかかってしまいます。どうしたら、もっと早く設計できるようになるか。どうしたら、望むとおりの分子ロボットを創ることができるのか。薬の設計と同じように生体分子の構造情報を使えば合理的に分子ロボットを設計できるのではないかと考えました。
そこで、今、仮想現実(VR)を使って分子ロボットを設計できないかということにチャレンジしています。二次元ディスプレイだと、DNAやタンパク質のような生体分子は原子数が多くのなると立体構造がよく分かりません。ところが、VRを使うと、何十万原子もあるDNA構造体の全体像と細部の両方がはっきり見えるのです。このようなVRを用いた分子設計のために何が必要かと言うと、単に計算性能が速いだけでは不十分で、リアルタイムにVRを表示できないとダメということです。そういうVRのための「スパコン」が欲しいのです。
VR上で仮想DNAに手で触れて、力学的な構造変化をリアルタイムにシミュレーションして表示するということもしています。分子シミュレーションには時間がかかるので多数の生体分子や水分子を扱うときはサーバー上で実行します。サーバー上で分子シミュレーションをすると通常はネットワークの遅延が発生しますが、AI技術を用いて自分の手の動きを予測することで、違和感なくサーバー上の仮想生体分子に触れることができます。VRという技術はなかなか面白くて、これから急速に社会に浸透していくと思います。VRを活用して、分子ロボットの設計技術を実用化したいです。
―先生は民間の会社、研究所、理研のような国研、大学の研究所に在籍された経験があります。その大きな違いは何でしょうか?
今、日本はR&Dが弱いと言われています。国際論文誌における日本人が書いた論文数の比率が減っているという傾向はありますが、大学の基礎研究ではそれほど負けているとは思いません。今、一番、日本が弱くなっているのは、基礎研究を実用化するための橋渡し研究(translational research)ではないでしょうか。自由な発想に基づく基礎研究はそのままの形では実用化につながらない研究がほとんどです。基礎研究で良い成果がでたからといって、その成果の延長で製品ができるわけではありません。研究成果を実用化するには、実ニーズにつながるように研究成果を見直し、実用化に必要な全ての研究や技術の方向性を実ニーズに向けて揃える過程が必要となります。
私が就職した1980年代から1990年代までは、日本の多くの大企業は中央研究所のような事業部とは別の研究のための組織を持っていました。その頃の企業の研究所の研究費は大学と比べたらはるかに多くありましたし、事業と全く無関係というわけにはいきませんでしたが、比較的自由に研究できました。事業部から予算をもらう受託研究もありましたが、独立した研究予算もあり、そこでは、まさに、実用化を目指した基礎研究をしていたのです。
企業内の基礎研究がどう役に立つかと言うと、会社の事業というのは10年、20年に一度という頻度で大きな技術変革の波がきます。そういう波が来たときに、社内に既に技術ストックがあるかどうかで、その事業を変えることができるかどうかが決まります。情報処理技術で言えば、マイクロプロセッサやインターネットの出現がそれにあたります。汎用コンピュータやオフィスコンピュータを扱っていた事業がUNIXワークステーションやPCに置き換わっていったのです。伝送ネットワークもそれまでのアナログ通信からデジタル通信に大きく変わりました。そういった変革の波に迅速に対応できるように、次世代の技術を熟知した人材を育て、技術を社内にストックするのが、中央研究所の役割だったのです。
アメリカも1970年代くらいまでは会社の研究所で基礎研究をしていました。ベル研究所は長らく通信技術やコンピュータ技術で世界をリードしていましたが、1980年代におきたAT&Tの分割とともに、段々と基礎研究部門が衰退してゆきました。また、コンピュータ業界では、メインフレームで世界に君臨していたIBMがUNIXワークステーションやPCの台頭により経営危機に陥り、大規模なリストラを余儀なくされました。このように、アメリカでは日本よりも早く大企業がそういう中央研究所を持てなくなってしまいました。
その後、アメリカはどうしたかというと、大学にベンチャーやスタートアップを作らせて、ベンチャーキャピタルやエンジェルがそれらを支援する仕組みを作りました。大学の先生やポスドクあるいは博士課程学生にベンチャーを作らせ、ベンチャーに民間企業やお金持ちが何億円、何十億円という資金を提供して実用化に繋がるような研究をするようになったのです。日本では、これまでそのような仕組みがあまりなかったので、なかなか大学発ベンチャーが育たなかったのです。日本でも、近年、ようやく大学発ベンチャーを増やそうという大号令がかかりだしたところです。
大学での基礎研究はある意味論文を書いて終わりでもいいのです。技術変革の波を起こすには多様な技術の創出が必要ですから。ただし、有望な研究については、実用化に向けてさらに一歩進めることが必要です。でも、そのような研究を企業で実用化するにはリスクが高すぎるのです。ベンチャーを作るにはまだ早いような研究は、実用化に向けて大学周辺でさらに研究を深め、特許が取れるような有望な技術ができたらベンチャーを作りましょう。そして、そこに投資しましょう、というのが理想的です。しかし、日本ではそこが難しい。なぜかというとそういう実用化研究は失敗する確率が高いからです。
ベンチャーというのは、生き残るのが100社中2社か3社という世界です。ただし、失敗覚悟でもチャレンジしないかぎり本当のイノベーションは起きません。アメリカの大学では日本よりも気軽に起業します。日本でも、100万円とか500万円を投資してくれる人はいますが、アメリカのように、その研究面白いから1億円出そうという人はあまりいません。でも、そういう人がいないと、本当のイノベーションは起きないし、テスラみたいな会社は出てこないと思います。
―先生にとってスパコンとは?
私のスパコンのイメージは最先端の製造技術と多額の資金を投入して製造したベクトル型計算機です。あれがスパコンで、並列マシンは、スパコンと比べたら、お手軽に作れる高性能計算機というイメージです。世の中の定義ではCenjuのような並列マシンもスパコンに入れて頂いていますが、製造技術は随分違います。当時は、あらゆる最先端製造技術を駆使して、最高性能を実現するのがスパコンでした。ところが、半導体技術の進歩とコンピュータ市場の変化により、ある時からスパコンのプロセッサ開発よりも、マイクロプロセッサの開発にはるかに多くの人員と予算をかけるようになってしまいました。そして、いつの間にか、プロセッサ性能も、スパコンのプロセッサよりもマイクロプロセッサの方が速くなってしまいました。それからは、スパコンがもはやスパコンではなくなってしまったような気がします。
―今、コロナで一般の人にも富岳は知られますが、今後に期待することは?
スパコンというのは、本来はひとりで使うものだと思っています。ようするに、この計算機じゃないとできないような問題を持っている人が使うべきであって、どんなに速い計算機を作ったとしても、それを10人、100人で使ったら、一人当たりの性能は1/10、1/100になってしまいます。それは本来のスパコンの使い方ではなくて、クラウドを使えばいいという話です。そうではなくて、絶対性能が欲しい。その為にはこの計算機じゃないと動かないというプログラムを動かすのが本来のスパコンだと思うのです。
地球シミュレータは目的がはっきりしていました。地球規模の気象をシミュレーションします。そのためのスパコンですと。日本だったら津波や災害シミュレーション専用のスパコン、というのを作れば、もっと速くて役に立つものが作れるのではないでしょうか。
―同じ分野で勉強している学生さん、こういう分野を目指すお子さんへのアドバイスをお願いします。
分子ロボットのような先端技術を社会に受容してもらうために、分子ロボット倫理研究会を立ち上げました。メンバーには、分子ロボット研究者だけでなく、社会科学や倫理の研究者もいます。
倫理あるいは科学コミュニケーションの視点に立つと、先端技術を外から見ることができます。研究した成果や技術が一般市民からどう見えるのか。利害関係者や行政担当者からはどう見えるか。こういう視点に立つことによって、客観的に自分たちが開発した技術がどういう風に理解されて、社会に対してどういうインパクトを与える可能性があるのか。あるいは、逆にどのようなリスクとしてとらえられる可能性があるかが見えてきます。
そういう倫理的な物の見方というのは、研究者や技術のコミュニティの中にいてはなかなか見えてきませんし、そういう発想にもなりません。社会科学の人たちや一般市民の人達と議論や対話をすると、全く思いもよらないような解釈をされるときもあり、色々と気付かされることがあります。それは研究者の視野を広げるためには、大事なことだと思います。
若い学生さんやお子さんへのアドバイスとしては、是非とも、未知の世界にチャレンジして欲しいです。人の背中を見て研究するのではなく、誰もまだ踏み入れていない荒野に一人で踏み込んでほしいです。鳥の目で世界を俯瞰すると未だ開拓されていない手付かずの研究領域が見えてきます。アリの目で下から上を見るのではなく、鳥の目で周辺も含めてみる。そういう俯瞰力、それをぜひ身に着けてください。
小長谷明彦氏 略歴 |
||||||||||||||||||||
|
写真:小西 史一