世界のスーパーコンピュータとそれを動かす人々


7月 8, 2024

生成AIの安全性と倫理を確保するための4つのステップ

HPCwire Japan

オリジナル記事「Four Steps to Ensure GenAI Safety and Ethics

 
  アテナ・レイハニ、ContractPodAi社最高製品責任者
   

生成AI(Generative Artificial Intelligence)の導入が急ピッチで進む中、あらゆる規模の組織が、特に倫理と正確さに関して、導入にまつわる課題を乗り越えていく必要に迫られている。

企業のリーダーにとって重要なのは、責任あるAIの利用を奨励し、意図しない結果を回避する、生成AIに関する明確なガイドラインとガードレールを確立することだ。一方、製品チームとビジネスリーダーは、倫理的で透明性の高い機能で企業全体のAIソリューションを安全に構築し、採用することで、組織のデジタルトランスフォーメーションの旅の道筋を確保する必要がある。

このことを念頭に置いて、企業が生成AI導入の最前線で倫理と安全性を確保するために注力できる領域に関する4つの提案を紹介する:

専用LLMの活用

縦割りのユースケースのセキュリティを確保する場合、公的な、全てのドメインに適合するワンサイズでは限界がある。これが、生成AIを展開する組織が、特化したエンタープライズ大規模言語モデル(LLM)と垂直ソリューションに焦点を当てるべき理由である。バーティカル・ソリューションは、業界関連のフレームワーク、顧客固有のルールや情報を追加し、ビジネスのニーズに関する精度を高めている。

専用モデルとバーティカル・ソリューションを使用することで、リーダーは特定のAIアウトプットがビジネスとその目的に関連し、業界に特化したものであることを確認できるだけでなく、本質的な精度、プライバシー、セキュリティのためのガードレールを設置することができる。

 

 
専用LLMは生成AI展開において重要な役割を果たすことができる  
   

AIの責任ある利用のために、ガードレールファーストの考え方と強力なガバナンスの仕組みを持つことは、一方ではAIの誤用や誤解を招くコンテンツから企業を守り、他方では侵害やサイバー脅威から企業を守るのに役立つ。

さらに、ベンダーの生成AIソリューションを活用する場合、ベンダーの価値観や慣行が組織の価値観と一致していなければならない。例えば、データをどのように学習させているのか、どのようなガードレールを設けているのか、セキュリティと倫理的な利用をどのように確保しているのか、といった質問をベンダーに投げかけることで、適切な生成AIベンダーを絞り込むことができる。

トレーニングイニシアチブでAIへの認識を高める

GenAIが企業で採用され、導入された場合、リーダーは従業員トレーニングのイニシアチブを実施し、従業員がテクノロジーについていくのを助け、テクノロジーがどのように使われ、また使われないかを理解するのをサポートし、GenAIのアウトプットを吟味する際のヒューマン・イン・ザ・ループ・アプローチに関するトレーニングを強化する必要がある。

これはすべて、GenAIの導入と他のプロセスへの応用に慣れてもらうための取り組みである。これは、このテクノロジーの可能性をその限界と同様に理解させるための方法であり、リテラシーを高め、エンゲージメントを促進し、全社的にテクノロジーを取り巻く信頼を醸成する手段を生み出すものだ。また、生成AIの使用法について継続的に教育を行い、継続的なトレーニングを提供することで、リーダーはその認識と信頼を築き、AIテクノロジーに対する安心感を高め、悪用される可能性を減らすことができる。

さらに、人材が訓練されることが重要であるだけでなく、生成AIのアウトプットは、その中のデータと同じくらい正確でなければならない。組織は、生成AIに投入されるデータが訓練され、クレンジングされていることを確認しなければならない。

企業全体で厳格なデータプライバシーを確保する

法律、銀行、医療のような大規模な業界では、一般にアクセス可能なAIシステムに膨大な量の個人情報を入力することは、個人に対する実質的なセキュリティリスクを意味する。

組織がベンダーの生成AIソリューションを活用している場合、ベンダーがLLMが学習するデータを完全に管理しているかどうかを確認し、顧客データがモデルの学習に使用されていないことを確認することができる。データはAIによって処理されるが、プライバシーの観点から、AIが顧客データを学習したり保持したりしないことが重要だ。

 
  生成AIの展開において、データのプライバシーは最も重要である
   

プライバシーのリスクを軽減するために、リーダーはデータの収集・保持方法に関する安全対策と強固なデータガバナンスを企業全体で実施しなければならない。

これには、AIの設計時にプライバシーへの配慮を織り込み、後の不必要なデータ露出を抑えること、データの保存期間に厳格な制限を設けて個人情報の長期保存を防ぎ、侵害にさらされる可能性を減らすこと、データの匿名化と集約(データセットから識別可能な情報を削除し、個々のデータポイントをより大きなデータセットにまとめること)を行い、人々のアイデンティティと個人情報を保護することなどが含まれる。

「ヒューマン・イン・ザ・ループ」アプローチを取る

前述したように、AIシステムは時に不正確な、あるいは予期せぬ出力、いわゆる “幻覚 “を生成することがある。このような現象が発生するため、リーダーはAIの対応品質を定期的に監督・評価する必要がある。

企業はまず、AIシステムの監視にリソースを割くことで、その品質、ひいては信頼性を向上させることができる。テクノロジーを監督することは、子供の行動発達を見守ることと同じだと考えてほしい。AIや子供がさらされる監視の質は、それぞれ出力や行動に直接影響する。

つまり、AIモデルを常に多様で偏りのない、完全に正確なデータにさらすことで、公平でバランスの取れたAIのアウトプットを育てるということだ。

生成AIの未来

結局のところ、生成AIがますます進歩し、規制が強化されるにつれて、企業のリーダーたちは、正確で安全で信頼できるテクノロジーの形態を確立することが求められている。社内のトレーニング・イニシアチブでAIの認知度を高め、特定の大規模言語モデルを採用・実装し、企業全体で厳格なデータ・プライバシーを保証し、最新のAIシステムを監視・調整するには時間がかかる。

しかし、上記のような対策やその他多くの対策を講じるまたとない機会を受け入れることで、企業のリーダーは、倫理的に健全で社会的責任があるだけでなく、事業運営上も有利な企業イノベーションを推進することができる。


アテナ・レイハニはContractPodAi社の最高製品責任者である。製品ビジョン、製品戦略、ロードマップを主導する。製品チームを率い、組織全体の他のリーダーシップチームと緊密に協力しながら、製品ビジョンの策定と実行に取り組んでいる。ContractPodAi入社以前は、高等教育、宝くじ・ゲーム業界において、様々な部門横断チームを率いて製品開発に携わる。コンピューター・サイエンスとビジネスを融合させた学歴を持ち、ブレイン・コンピューター・インターフェイスやAIを活用したビジネス変革にフォーカスしている。