SambaNova、第2世代データスケール・システムを発表
Oliver Peckham オリジナル記事

SambaNova Systemsは、第2世代のデータスケールシステムであるDataScale SN30を発表し、出荷を開始した。SambaNovaは、DataScale SN30が、Nvidia A100 GPUを搭載した同等のシステムに対して、(特定のAIワークロードで)6倍のスピードアップが可能であるとしている。この新しいハードウェアは、本日より出荷さ れる。発表に先立ち、HPCwireはSambaNovaの製品担当上級副社長であるマーシャル・チョイ氏に発売について話を聞いた。
新しいDataScaleシステムを動かすCardinal SN30 RDUは、TSMCの7nmプロセスで製造され、860億個のトランジスタを含み、bfloat16精度で688テラフロップスが可能である。チョイ氏は、チップそのものは販売しておらず、SambaNovaが販売するシステムやサービス提供にのみ使用しているため、チップに関する「Hot Chipsレベルの詳細」には踏み込んでいないと述べた。各SN30システムには、SN30 RDUが8個搭載されており、その他の改良も施されている。「チップだけでなく、メモリについてもよく考えています。マッシブモデルには大容量のメモリが必要です。そのため、SN30はNvidiaのDGX A100の12.8倍のメモリ容量(80ギガバイトに対してフルテラバイト)を提供します」とチョイ氏は述べている。「基本的に、チップ上のすべての計算とメモリは、前世代から倍増しました。」
![]() |
新型SambaNova SN30を手にするマーシャル・クロイ氏 画像提供:SambaNova |
「エンタープライズ統合を中心に強化したSambaFlowソフトウェアスタックと、コンテナ化・仮想化モデルやアプリケーションのオーケストレーションを実現するKubernetesのネイティブサポートのようなものとすべて組み合わせると、新しいDataScale SN30ハードウェアプラットフォームになります 」と、チョイ氏は続ける。
チョイ氏によると、新しいDataScaleシステムはDGXシステムに匹敵するが、使いやすさのために完全にラック統合されている(「巻いて、差し込んで、動く」)。SN30へのアクセスは、システムを購入するか、SambaNovaの「Dataflow-as-a-Service」モデルを通じて行う。このモデルは、クラウドサービスプロバイダ経由でも、プライベートクラウドを通じたオンプレミスでも実行できる(ファイアウォールとプライバシー保護の観点から、一部の顧客はこれを好むと言う)。チョイ氏によると、サポートするパブリッククラウドプロバイダーの全リストはまだ確定していないが、Aicadium、Cirrascale、ORockなど一部のプロバイダーはすでに参加しているという。
SambaNovaは、「スタックの各レベルで革新する完全に統合されたAIプラットフォーム」と謳っており、同社はこの提供をNvidiaのスイートに対して比較する位置づけとしている。SambaNovaによると、130億パラメータのGPT-3モデルをトレーニングした場合、新しいDataScale SN30システムは、8ソケットのDGX A100システムを6倍上回った。SambaNovaの以前のシステムであるDataScale SN10と比較すると、「一般的に2~6倍」性能が向上していると、チョイ氏は述べている。
顧客
SambaNovaは今のところ、DataScale SN30システムの初期顧客のうち、アルゴンヌ国立研究所とローレンス・リバモア国立研究所(LLNL)を含む数社のみを開示しているが、この2機関はいずれも新しいHPC技術、特にAI重視のシステムと新しいアクセラレータに関して、早期に採用する研究所として定評がある。
LLNL のリバモア・コンピューティング担当 CTO であるブロニス・デ・スピンスキー氏は、「我々は、SambaNova の次世代 DataScale システムの大規模なマルチラックシステムを導入することを楽しみにしています」と述べている。「このソリューションをセンター内の従来のクラスタと統合することで、この技術がより深いプログラム上の影響を与えることができるようになります。新しいDataScaleシステムは、全体的なスピード、パフォーマンス、生産性の大幅な向上を約束するので、2~6倍のパフォーマンス向上を見込んでいます。」
より多くの顧客が年末までに発表されるとチョイ氏は述べている。
ガートナーのアナリストであるチラグ・デカテ氏は、「エンドユーザがディープラーニング型のモデルや基礎モデルに触れるにつれ、そのアプローチにもう少し実験的な要素を取り入れるようになってきています」とコメントしている。「いわば、テクノロジーの展望を積極的に探っているのです。アクセラレータの性能を劇的に向上させ、データフローエコシステムをサービスとして公開することで、SambaNovaは大規模でより複雑なモデルを探求するエンドユーザに対してユニークな技術を提供することになります」とデカテ氏は付け加えている。
「多様なイノベーションの選択肢を試行錯誤したいエンドユーザにとって、参入の敷居を劇的に下げることができました」とデカテ氏は述べている。
新たな基盤
SambaNovaは、自社の製品が幅広い専門的なタスクを処理できる大規模なAIモデルである基盤モデルのブームに適していると考えている。チョイ氏は、「私たちは、人工知能の進化を確実に見ています。予測分析、機械学習、深層学習の世界から、次のフロンティアは、すべて基盤モデルなのです。基盤モデルは、現在のビジネスにおける高速インターネット接続とモバイルアプリケーションのように、これから先、企業や組織にとって必要なものになると考えています。」
チョイ氏は、ある大手銀行の事例を紹介した。その銀行は、これまでBERT言語モデルを数千種類も導入し、特定のタスクに合わせて細かく調整していた。チョイ氏は、GPT-3のような基盤モデルによって、この状況は変わったという。
「従来の考え方では、最高レベルの精度を得るためには、特定のタスクに特化してチューニングされた小規模なモデルと、大規模なデータセットが必要でした。GPTベースの基盤モデルで、同等以上の精度を達成できることが証明されたのです。」
「もちろん、大きな課題は、実際に基盤モデルを構築し、展開できる人が世の中にあまりいないことです。例えばGPT-3では、基本的にOpenAI、AWS、Meta、SambaNovaの中から選択することになります。」
もちろん、SambaNovaのDataflow-as-a-ServiceはGPTモデルを持っている。このモデルは、近いうちにさらに強化され、ビジョン指向の基盤モデルによって補完されるだろうと、チョイ氏は述べた。
「ガートナーは、今後、基盤モデルに大きな重点が置かれることに同意しています」とデカテ氏はコメントしている。「エンドユーザーのエコシステムで起こり始めていることは、エコシステム内の深層学習ベースのイノベーションの多くを製品化するだけでなく(一部は自家製、一部は他から借用)、多くの場合、基盤モデルや異なるタイプのAI技術を一緒に組み合わせることができるマルチモーダルAIなどの最先端技術にも目を向けて、非常に積極的に取り組んでいます 」と述べている。
SambaNovaは50億ドルの評価額で11億ドルを調達し、500人以上の従業員を抱えている。同社は今年11月にダラスで開催されるSC22に出展し、昨日から木曜日まで開催される今年のAI Hardware Summitでは、同社のスピーカーが何度か登場している。
ヘッダー画像:LLNLの既存の第一世代SambaNovaの展開