AWS、初のArmクラウド基盤を開始
Doug Black

新たに登場するハイパフォーマンステクノロジーの巣窟であるAWSは、どこにいても、あなたが使いたい(または少なくとも試してみたい)ものをすべて提供したいと考えているようだ。このように、クラウド・コンピューティングサービスの巨人は、クラウド業界では初めてのArmアーキテクチャをベースとしたAWS Gravitonプロセッサを搭載した新Amazon Elastic Container Service(EC2)A1インスタンスを使って、技術の分化(プロセッサの多様性)の精神を引き上げたのだ。 Gravitonプロセッサは、AWSのチップ開発グループであるAnnapurna Labsによって設計された16個の64ビットArm Neoverseコアとカスタムシリコンを搭載している。
同社によると、この新インスタンスでは、コンテナ化されたマイクロサービス、Webサーバ、開発環境、キャッシングなどの小規模なインスタンス間で負荷が共有されるスケールアウトジョブで、AWSは最大45%のコスト削減を約束している。
![]() |
|
AWSの年次報告:ラスベガスで開催された「re:Invent」カンファレンスでの月曜日の発表は、GPU、FPGA、さらに最近ではAMD Epyc CPUをベースにしたAWSインスタンスに加えて、Cloud Firstについても発表された。
さらに、AWSは、機械学習、計算流体力学、天気シミュレーション、ビデオエンコーディング、その他のスケールアウト、分散ワークロードなどのハイパフォーマンス・コンピューティング・アプリケーション向けに、新しいP3およびC5インスタンスで100 Gbpsネットワーク機能を発表した。
もちろんArmアーキテクチャは長年に渡って幅広い採用が行われており、少なくとも1人の業界アナリストが、Arm NeoverseベースのCPUを搭載したGraviton A1インスタンスは、そのプロセスにおいて重要なステップとなる可能性があると述べている。
Moor Insights&StrategyのPatrick Moorhead社長兼アナリストは、次のように述べている。「この発表は、データセンター・サーバにおいて、汎用Armプロセッサを使うという非常に画期的なものです。」 「多くのバイヤーは、AWSを適切なコンピューティングオプションを識別するためのゴールドスタンダードと考えています。Azureやその他のクラウドプレイヤーでArmをもっと見ることができると信じています。」
AWSは、x86命令セットに依存しないコンテナ化されたマイクロサービスやWeb層アプリケーションなどの新しいスケールアウトするワークロードは、アプリケーションの計算負荷を分散するより小さい64ビットARMプロセッサによって、コストとパフォーマンスの利点を得ることができると述べている。 Amazonは、A1インスタンスは、スケールアウト作業負荷で最大45%のコスト削減(他のAmazon EC2汎用インスタンスと比較して)を実現すると述べている。 A1インスタンスは、Amazon Linux、Red Hat、UbuntuなどのLinuxディストリビューションや、ECSやAmazon EC2 for Kubernetes(EKS)などのコンテナサービスでサポートされている。
Amazon EC2 A1インスタンスは、米国東部(米国バージニア州)、米国東部(オハイオ州)、米国西部(オレゴン州)、およびヨーロッパ(アイルランド)地域で利用可能だ。 5つのサイズで、1から16個のvCPUを提供し、オンデマンド、リザーブドまたはスポットインスタンスとして購入できる。
![]() |
ネットワーキングの面では、C5インスタンスとGPU搭載P3インスタンスは、セキュアでスケーラブルで弾力性のある方法で100Gbpsのネットワークパフォーマンスを提供する最初の製品であり、顧客はHPCだけでなくアナリティクス、機械学習、ビッグデータ、データレイクなどの作業負荷を標準のドライバとプロトコルで実現できる、とAWSは述べている。
AWSは、「P3dnでは、複数のGPUインスタンスに機械学習ワークロードを分散することで、トレーニング時間を1時間未満に短縮できます。」と述べており、既存のP3インスタンスに比べてネットワークスループットが4倍向上すると付け加えている。 P3dnインスタンスには、96個のvCPUを搭載し、AVX512命令をサポートするカスタムIntel CPUと、それぞれ32 GBのメモリを備えたNvidia Tesla V100 GPUが含まれている。
![]() |
「2018年8月には、Imagenetを約18分間で93%の精度で訓練することができました。約40ドルでP3インスタンスを16台使用しました。」と深層学習組織のfast.ai創設研究員Jeremy Howardは述べている。
新しいC5nインスタンスは100Gbpsのネットワーク帯域幅を提供し、C5インスタンスの4倍のスループットを提供し、以前のネットワーク接続されたアプリケーションをAWS上で効果的にスケールアップまたはスケールアウトすることができる。また、より高いネットワークパフォーマンスを利用して、Amazon S3ストレージとのデータ転送を高速化し、データの取り込み時間を短縮することができる。
AWSはまた、ユーザから複数のAWSリージョンで稼働するアプリケーションのエンドポイントにインターネットトラフィックをよりシンプルにすることにより、グローバルに分散したアプリケーションの可用性とパフォーマンスを向上させるために設計されたGlobal Acceleratorを発表した。 AWSのグローバル・ネットワーク・バックボーンとエッジロケーションを使用して、クライアントを地理的な位置、アプリケーションの健全性と顧客設定可能なルーティングポリシーに基づいて、適切なエンドポイントに誘導する。
AWSは、固定サイズのオンプレミスHPCシステムを拡張するために、HPCワークロードをAWSに移行するためのElastic Fabric Adapter(EFA)を発表した。 AWSによると、EFAはHPCアプリケーションのスケーリングに不可欠なインスタンス間通信を強化し、弾力性とスケーラビリティを提供している。 EFAはMessage Passing Interface(MPI)と統合されているため、HPCアプリケーションを変更なしで数万のCPUコアに拡張することができるのだ。
別の発表では、Amazon ECSとEKSのコンテナの配備を簡単にするために、AWSはMarketplace for Containersを立ち上げた。これには、Nvidiaの6つの新しいAIコンテナ(Nvidiaのブログを参照)が含まれている。