投稿日: Jul 15, 2022

Amazon SageMaker は、お客様がワークロードに最適なインスタンスにモデルをデプロイできるように、新しい ML インスタンスへのアクセスを拡張します。現在、お客様は、非同期およびリアルタイムのモデルデプロイオプションとして、ml.g5、ml.p4d、および ml.c6i というインスタンスを使用することができます。

AWS では、デベロッパーの日常に ML を普及させ、低コストの従量課金モデルで利用できる最先端のインフラストラクチャへより多くの人がアクセスすることを目指しています。このビジョンを実現するために、AWS では、より優れたパフォーマンスでより低コストな ML ワークロード向けのインフラストラクチャを継続的に提供するべく革新を足早に進めています。

  • ml.g5 インスタンスは、G4dn インスタンスと比較して、機械学習推論において最大 3 倍のパフォーマンスと最大 40% 優れた単価あたりのパフォーマンスを実現します。TensorRT、CUDA、cuDNN などの NVIDIA ライブラリを使用して ML アプリケーションを実行したいお客様にとって、高パフォーマンスでコスト効率の高いソリューションです。これらのインスタンスは、レコメンデーション、チャットボット、スマートアシスタント、画像認識などのユースケースに最適です。ml.g5 インスタンスは、米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州 (アイルランド) で利用可能です。
  •  ml.p4d インスタンスは、前世代の P3 インスタンスと比較して、深層学習モデルのパフォーマンスが平均 2.5 倍向上します。GPU あたり 40 GB のメモリと最大 8 TB のローカル NVMe SSD ストレージのサポートにより、高パフォーマンスな機械学習推論 (大規模言語モデルやコンピュータビジョンモデルなど) のための大規模なモデルとデータセットをローカルに保存することが可能になります。ml.p4d インスタンスは、米国東部 (バージニア北部) と米国西部 (オレゴン) で利用可能です。
  • ml.c6i インスタンスは、第 3 世代の Intel Xeon Scalable プロセッサを搭載しており、C5 インスタンスと比較して、最大 15% 優れた単価あたりのパフォーマンスを幅広いワークロード向けに提供します。また、C6i インスタンスでは、最大 128 ユニットの vCPU と 256 GiB のメモリというより大きな新サイズを提供しており、お客様がより少ないインスタンスにワークロードを統合することを可能にします。C6i インスタンスは、インテルの新しい Advanced Vector Extensions (AVX 512) 命令、Intel Turbo Boost、Intel Deep Learning Boost をサポートしており、パフォーマンス、特に、機械学習ワークロードのパフォーマンスをさらに向上させます。ml.c6i は、すべての商用リージョンで利用可能です。

これらのインスタンスの料金情報については、料金ページをご覧ください。