投稿日: Apr 17, 2020
Amazon SageMakerのお客様は、機械学習モデルのトレーニング向けに、ml.g4dn インスタンスと ml.c5n インスタンスを選択できるようになりました。Amazon SageMaker は、開発者やデータサイエンティストがあらゆる規模の機械学習モデルを短期間で簡単に構築、トレーニング、デプロイできるようにする、モジュラー式の完全マネージド型プラットフォームです。
Amazon ml.g4dn インスタンスは、計算量の多い機械学習トレーニングとモデル評価ワークロードを加速できるよう設計されており、費用対効果にもっとも優れ、多目的に使用できる GPU インスタンスを提供します。ml.g4dn インスタンスには、NVIDIA T4 Tensor Core GPU、AWS カスタムの第 2 世代 Intel® Xeon® スケーラブル (Skylake) プロセッサ、および AWS Nitro System が搭載されています。Nitro のローカル NVMe ベース SSD ストレージにより、最大 900 GB の高速ローカル NVMe ストレージへの直接アクセスが可能になります。ml.g4dn インスタンスは、低価格で FP16 で最大 65 TFLOP の性能を発揮し、トレーニング時間の影響を受けにくい小規模な機械学習トレーニングジョブに使用すると、費用対効果が向上します。
Amazon ml.c5n インスタンスは、バッチデータ処理や分散型深層学習の推論など、高度なコンピューティング集中型ワークロードの実行に最適です。ml.c5n インスタンスは、ml.c5 インスタンスをネットワーク向けに最適化したバリアントであり、Intel® Xeon® スケーラブル (Skylake) プロセッサおよび第 4 世代のカスタム Nitro Card と Elastic Network Adapter (ENA) デバイスを搭載して、インスタンスあたり最大 100 Gbps のネットワーク帯域幅を実現しています。これらのインスタンスは、あらゆるインスタンスサイズにおいて、非常に優れたネットワークパフォーマンスを提供します。インスタンスサイズが小さい場合は 25 Gbps (ピーク帯域幅)、インスタンスサイズが最大の場合は 100 Gbps (ネットワーク帯域幅) と多岐にわたります。さらに、ml.c5n インスタンスでは、利用可能なメモリが、ml.c5 インスタンスと比較して 33% 多く、ネットワークスループットとパケットレートパフォーマンスの向上が効果を発揮するアプリケーションに最適です。
ご利用を開始するには、Amazon SageMaker 製品ページをご覧ください。