AWS、「伸縮自在」なGPUとしてFPGAを採用
George Leopold

Amazon Web Serviceに登場した新しいインスタンスは、汎用プロセッサでは新しく登場してくるワークロードの要求を満たすことができないために、性能とコストのバランスを取ることができるカスタマイズ可能なフィールド・プログラマブル・ゲートアレイをベースとしている。
このパブリッククラウドの巨人は、年1回のパートナーイベントにおいて、もうひとつ別のGPUサービスと共に、この新しい「F1」インスタンスを発表した。新しいFPGAインスタンスは、AWSクラウド・コンピューティング・サービスの米国東部リージョンにおいてデベロッパー・プレビューとして現在利用可能であり、年末までの一般利用が可能となる予定だ。価格は公表されていない。
一方、同社はまた別に、エラスティック・コンピュート・クラウド上での「エラスティック・GPU」サービスのプレビューを発表した。「ほんのちょっとGPUが必要なんだけど、GPUインスタンスのように全部のGPUは必要ない時があります。」と、AWSのCEOであるAndy Jassyは述べている。「エラスティックGPUではGPUと9つのどのインスタンスにでも接続できるのです。」
また新F1インスタンスは、モノのインターネット、ビデオストリーミングや他の要求されるワークロードによって生成されている継続的なデータの急増に対処しようとしている。F1インスタンスの仕様では、Intel Boardwell E5 2686 v4プロセッサを、最大976ギガバイトのメモリ、最大4テラバイトのストレージ、および最大8個のFPGAと組み合わせることができる。
「このFPGAはインスタンス専用で、マルチテナント環境で使えるように分離されています。」とAmazonのJeff Barrはブログで述べている。最大8個のFPGAは各F1インスタンス専用で、次の仕様に基づいている。
- 16ナノ・プロセスを使ったXilinx UltraScale+ VU9P
- 4つのDDR4チャネルを含む288ビット幅のバス上の64ギガバイト・メモリ
- CPU用の専用PCIe x16インタフェース
- 約6,800のデジタル信号処理エンジン
ひとつ以上のFPGAを使うインスタンスについては、専用のPCIeファブリックを使用して、同じメモリアドレス空間を共有し、各方向で最大12Gbpsの速度でPCIeファブリック越しに通信することができると、Barrは述べている。
AWSはまた、FPGA、CPUおよび主メモリを接続するように予め設定されたI/Oインタフェースを持ったF1ハードウェア開発きっとを提供すると発表している。キットに付属するサンプルのアプリケーションは、ホストとFPGA間、FPGAとメモリ間、および個々のFPGA間のリンクに対応しているとBarrは述べている。
Amazonのパートナーはまた、新しいF1インスタンスを公開するために、このパブリッククラウドの巨人と協力していると述べている。「AWS市場は、新F1インスタンスの登場によるヘテロな計算原理を受け入れ、全く新しいデータ解析の機能セットを開くでしょう。」とデータ解析のスペシャリストであるRyftシステムズ社のCEOであるDes Wilsonは予測している。¥ハイブリッドのFPGA/x86構成に特化している企業であるRockville社は、F1インスタンスを様々な解析プラットフォームに組み込んで利用することができるAPIを提供すると述べている。