世界のスーパーコンピュータとそれを動かす人々


2月 15, 2024

信じなさい、私は賢い:来るべきAI時代のHPCと政府規制

HPCwire Japan

Doug Eadline オリジナル記事「Trust Me, I’m Smart: HPC and Government Regulation in the Coming AI Age

スティーブン・ホーキング博士の有名な言葉に、”効果的なAIの創造における成功は、我々の文明史上最大の出来事となり得るが、潜在的なリスクへの備えと回避方法を学ばない限り、AIは我々の文明史上最悪の出来事となり得る “というものがある。

LLM(大規模言語モデル)という形のAIが爆発的に普及した。ChatGPTのようなツールによる人間のような会話から、多くの人がAIが広く普及する時代が到来したと考えている。莫大な資金がHWとSWに費やされ、”単なる人間 “が行っていた多くのタスクの自動化が期待されている。最近Googleは、AIによるプロセスの自動化に伴い、広告営業チームの再編成と「数百人の従業員」の削減を発表した。重要な業務をAIエージェントやツールに委ねるのは新しい試みであり、こうした人間とAIとの高度な会話の有効性はまだ未知数だ。

LLMを含む生成AIの一面は、市場の動きの速さだ。研究者たちは長年にわたって新しいアイデアやモデルを開発してきたが、ここ1年半でAI、特にLLMに対する商業的関心が加速し、その勢いが衰える気配はない。ホーキング博士の助言は、これ以上適切なものはないだろう。

AI技術の急速な普及と未検証の有効性を踏まえ、HPCwireはIntersect360 Researchのシニアアナリストであるスティーブ・コンウェイ氏に、AIを規制しようとする政府の試みと、それがHPCにどのような影響を及ぼすかについてコメントを求めた。コンウェイ氏は、10年以上にわたってAIの進歩を注意深く追跡してきた。ジョンズ・ホプキンス大学応用物理学研究所との共著による米軍幹部向けのAI入門書など、このトピックについて幅広く講演や出版を行っている。

 
  Intersect360 Researchシニアアナリスト スティーブ・コンウェイ氏
   

HPCwire:AIに対する政府の規制はどうなっていますか?

コンウェイ:2024年と2025年は、世界各国政府によるAI規制の大きな転換期となるでしょう。最近の進歩、特に生成AIが自国の社会や経済を強力に変革する可能性があることを認識した各国政府は、有害な可能性を回避しつつ、自国をAIのリーダーにすることを目的とした規制を推進しています。AIをめぐっては、今日の世界は興奮と懸念の狭間にあり、規制の文言はその両方を反映しています。これらの文書に目を通すと、まるでパンドラの箱が開いてしまったかのような、多大な熱意とリスクを手なずけることへの危機感が感じられます。

HPCwire: なぜ今、規制への取り組みが活発化しているのでしょうか?

コンウェイ: 支配的な方法論である学習モデルは非常に有用ですが、まだ透明性も信頼性もありません。この状況は、意図的または非意図的な誤用の深刻な可能性を生み出します。数年前、私はシカゴ大学のレベッカ・ウィレットによる、AIがエラーやバイアスをもたらす可能性のある多くの方法についての素晴らしいプレゼンテーションを聞きました。生成AIは、特にデータを集計・整理する際に事実と虚構を見分けることができないため、懸念が急増しています。

例えば、Google Duplexのような超リアルなボットは、人工的な性質を人間から隠すように意図的に設計されており、会話に「ums」や「ers」を挿入することさえあります。スタンフォード大学のAdaptive Agents Groupは、人工エージェントのためのShibboleth Ruleを提案しています。それは、「すべての自律型AIは、人間であろうとなかろうと、いかなるエージェントからも求められた場合、自分自身をそう名乗らなければならない」というものです。

HPCwire: これはHPCコミュニティにとってどのような意味があるのでしょうか?

コンウェイ: HPCはAIの研究開発の最前線においてほぼ不可欠であり、ほぼすべてのHPCサイトが今日AIを利用または探求しています。そのため、策定中のいくつかの国のAI規制が、科学研究者や研究者のいわゆるフロンティアAI能力を大きく対象としており、最先端の技術を進展させていることは偶然ではありません。

HPCwire: HPCベンダーにとって何か特別な影響はありますか?

コンウェイ: 多くの政府規制当局が懸念しているフロンティアAI機能の技術を設計・提供する組織として、クラウドサービスプロバイダーを含むHPCベンダーは、AIリスクを軽減する取り組みを注意深く追跡し、これらの取り組みに直接関与することを検討すべきだと思います。AI規制が、知的財産権の保護や違反に対する重い罰則など、法的側面に重きを置くのは日本だけではないと思います。ベンダーはこれに細心の注意を払うべきでしょう。

HPCwire :研究者へのメッセージをお願いします。

コンウェイ: AIの透明性の問題は、研究者がAIを適用するタイミングと、人間をループに入れるタイミングについて、引き続き注意深くあるべきことを示唆しています。重要なアプリケーションの場合、AIの使用は一般的に最終段階ではなく中間段階であるべきで、可能な限り人間がAIの結果を検証すべきです。

HPCwire: AIは世界中の規制で同様に定義されているのでしょうか?

コンウェイ: その定義は一般的に非常に幅広く、科学研究からソーシャルメディア、家電製品、自動運転や半自動運転、精密医療、電気通信など、幅広い領域を含むことが多いです。各国政府は、このような多様な領域にまたがるAIの規制や政策を単一の機関で適切に管理できるかどうか、真剣に考えなければなりません。米国、中国、英国を含む一部の政府は単一機関の解決策に向かっているようですが、EUは領域ごとに異なる規制アプローチを追求しています。

HPCwire: AI規制に関する主要国・地域の立ち位置を簡単にまとめていただけますか?

コンウェイ:もちろんです。 中国は、「責任ある研究活動のためのガイドライン」を制定し、生成AIを規制するために他国に先駆けて一歩を踏み出しました。特にこのガイドラインでは、公衆に影響を与える研究助成プロジェクトの申請書には、AIの使用を明確に表示しなければならないとしています。さらに、中国サイバースペース管理局(CAC)は、社会、すなわち中国の社会秩序を脅かす可能性のあるフロンティアAIモデルに対するライセンス制度を採用しました。重要なのは、CACのライセンスは、中小企業(Small and Medium-sized Enterprises)、新興企業、大企業によるイノベーションを意図的に奨励していることです。大企業がこの競争を妨害し、重要なブレークスルーが小さな企業から生まれる可能性のある、黎明期のAI市場で独占しようとするかもしれないという懸念が世界的に広がっています。

HPCwire :ヨーロッパはどうですか?

コンウェイ: 2023年11月のブレッチリー宣言では、英国、米国、中国、日本、そしてEMEA(欧州、中東、アフリカ)およびアジア太平洋地域の多くの国を含む28カ国が、フロンティアAI能力に関連する高いリスクの管理で協力することに合意しました。EUのAI法は、今年か来年に施行される見込みで、AI規制に関する世界で最も包括的で厳格な試みと見られており、一部の企業からはイノベーションを阻害していると非難されています。EU法では、重大な違反者に対しては、違反企業の前年度所得の7%という罰則を定めており、その額は数百万ユーロにのぼる可能性があります。

HPCwire: 米国ではどうなっていますか?

コンウェイ: バイデン大統領の2023年10月の大統領令は、プライバシーの保護と差別の処罰を目的としたAI権利法案の原則を示すものとして重要です。しかし、米国ではすでに30の州でAIの可能性とリスクに対処する法律が成立しています。ご存知のように、米国では連邦規制に関するコンセンサスが州レベルから湧き上がることはめずらしくはありません。

HPCwire :日本はどうですか?

コンウェイ: 日本は、欧州の厳しい規制よりも米国のようなアプローチを取っています。2019年、日本政府は “人間中心AI社会原則 “と “AI戦略2022 “を発表しました。どちらも、AIの進歩の中で国民保護と持続可能な社会を目指すものでした。「AI, Machine Learning & Big Data Laws and Regulations 2023」では、法的責任を含むデータと知的財産の保護が中心となっています。

HPCwire : 量子コンピューティングもまた、社会に潜在的なリスクをもたらす変革技術です。量子コンピューティングについても、政府による規制が進められているのでしょうか?

コンウェイ: 量子コンピューティングの広範な商業化はもっと先のことなので、規制活動はより早い段階にあります。FINRA(金融業規制協会)は、サイバーセキュリティとデータガバナンスに関する量子規制の留意点を発表しています。それでも、今日急がなければならないのは、ほとんどがAIに関することです。例えば中国では、バイドゥとアリババの両社が量子研究施設を政府に譲渡し、AI分野での競争により力を入れています。量子コンピューティングのリスクに対する懸念は、近いうちにもっと深刻になるでしょう。

HPCwire: 規制によってイノベーションが阻害されないよう、HPCコミュニティはAIによるリスク軽減のために何ができるでしょうか?

コンウェイ: 私は、AIに関連するすべての大学のカリキュラムにおいて、例外なく倫理の授業を必修とし、AIがもたらすリスクに特化したトレーニングを行うべきだと思います。ケンブリッジ大学、オーストラリア国立大学、ジョージア工科大学、スタンフォード大学、ニュージャージー工科大学、東京大学、シュトゥットガルト大学、北京大学など、世界的に著名な大学の多くが、すでにAIに特化した倫理コースを設けています。この側面は重要です。


Intersect360 Researchのシニアアナリストであるスティーブ・コンウェイは、10年以上にわたってAIの進歩を注意深く追跡してきた。コンウェイは、ジョンズ・ホプキンス大学応用物理学研究所との共著による米軍幹部向けのAI入門書など、このテーマについて広く講演や出版を行っている。