投稿日: Nov 1, 2023

AWS は本日、Amazon Elastic Compute Cloud (Amazon EC2) Capacity Blocks for ML の一般提供を開始しました。EC2 Capacity Blocks を使用すると、Amazon EC2 UltraCluster 内の GPU インスタンスを、機械学習 (ML) ワークロードを実行するために必要となる将来の日付からの期間だけ予約できます。これは容量を予約するための画期的な方法で、将来そのインスタンスが必要となる時間だけ GPU インスタンスが利用可能となるようスケジュールできます。 

EC2 Capacity Blocks を使用すると、ML ワークロードのための GPU インスタンスへのアクセスが確実かつ予測可能になります。また、EC2 Capacity Blocks for ML を使用すると、分散トレーニングのための Amazon EC2 UltraClusters でのコロケーションを通じて、低レイテンシー、高スループットの接続を実現できます。GPU 容量は 1 ~ 14 日の期間にわたり 1 ~ 64 インスタンス (512 GPU) のクラスターサイズで予約できるため、さまざまな ML ワークロードを柔軟に実行できます。これには、ML モデルのトレーニングと微調整、ラピッドプロトタイピング、将来の需要急増への対応などが含まれます。EC2 Capacity Blocks は 8 週間前から予約可能です。

米国東部 (オハイオ) AWS リージョンでは、最新の NVIDIA H100 Tensor Core GPU を搭載した Amazon EC2 P5 インスタンスを EC2 Capacity Blocks で予約できるようになりました。

使用を開始するには、AWS マネジメントコンソールAWS コマンドラインインターフェイス (AWS CLI)、および AWS SDK にアクセスしてください。詳細については、「Amazon EC2 Capacity Blocks for ML」とドキュメントを参照してください。