投稿日: Jun 25, 2021

Amazon EC2 Inf1 インスタンスと AWS Neuron では、YOLOv5 と ResNext の深層学習モデル、および最新のオープンソースの Hugging Face Transformers をサポートするようになりました。また、Neuron コンパイラを最適化してパフォーマンスを向上させていますので、事前にトレーニングされた BERT ベースモデルの同等の GPU ベースのインスタンスよりも 12 倍高いスループットをすぐに実現できるようになりました。これらの拡張機能により、高パフォーマンスの推論要件を効果的に満たし、最先端の深層学習モデルを低コストでデプロイできます。 

EC2 Inf1 インスタンスは、機械学習の推論を高速化するために AWS が開発したカスタムチップである AWS Inferentia を搭載しています。これらのインスタンスでは、クラウドでの深層学習の推論が最低コストで提供されます。TensorFlow、PyTorch、MXNet などの一般的な機械学習フレームワークで機械学習モデルを簡単にトレーニングし、Neuron SDK を使用して、それらの機械学習モデルを EC2 Inf1 インスタンスにデプロイできます。Neuron は一般的な機械学習フレームワークと統合されているため、最小限のコード変更で既存のモデルを Inf1 インスタンスにデプロイできます。これにより、ベンダー固有のソリューションに縛られることなく、ハードウェアの移植性を維持し、最新のテクノロジーを利用することができます。

Inf1 インスタンスは、Snap、Autodesk、Conde Nast などのお客様、および Alexa や Rekognition などの Amazon のサービスで広く採用されており、世界中の 23 の AWS リージョンで利用できます。エンジニアリングへの投資は、当社の規模や実績のあるキャパシティー管理能力と組み合わせることにより、コスト削減を見極め、それをお客様に還元することを可能にします。Amazon EC2 Inf1 インスタンスでの本番環境で深層学習アプリケーションをさらにスケールできるように、2021 年 6 月 1 日よりオンデマンド (OD) 料金を 38% 引き下げることを発表いたします。Savings Plans またはリザーブドインスタンス (RI) を利用してコストをさらに低減したいお客様のために、1 年間の Savings Plan と RI の料金を 38%、3 年間の Savings Plan と RI 料金を 31% 引き下げます。これらの値下げは、Amazon ECS や EKS などのコンテナオーケストレーションサービスを介して EC2 Inf1 インスタンスを使用するお客様にも有効です。

フルマネージド型の機械学習サービスを使用したいお客様のために、Amazon SageMaker の ml.Inf1 インスタンスの料金も引き下げています。 Amazon SageMaker は、すべてのデベロッパーやデータサイエンティストが機械学習モデルを構築、トレーニング、デプロイできるようにするフルマネージド型サービスです。2021 年 6 月 1 日より、Amazon SageMaker のお客様は、オンデマンドインスタンスで 38% の値下げを利用できます。本日より、Amazon SageMaker の料金を 1 年間の Savings Plan で最大 38%、3 年間の Savings Plan で最大 25% 引き下げます。これらの料金値下げにより、リアルタイム推論のニーズに対応する Inf1 インスタンスのパフォーマンスに対する費用対効果がさらに高まります。Amazon SageMaker の ml.Inf1 インスタンスの料金については、「Amazon SageMaker の料金」ページにアクセスしてください。

Amazon EC2 Inf1 インスタンスは、米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン、北カリフォルニア)、AWS GovCloud (米国西部、米国東部)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、ミラノ、パリ、ストックホルム)、アジアパシフィック (香港、ムンバイ、ソウル、シンガポール、シドニー、東京)、中東 (バーレーン)、南米 (サンパウロ)、および中国 (北京、寧夏) などの 23 のリージョンで利用可能です。機械学習推論のリアルタイムのレイテンシー要件を最適に満たすリージョンで、Amazon EC2 Inf1 インスタンスをさらに最適化されたパフォーマンスと低コストで活用できます。

詳細については、「Amazon EC2 Inf1 インスタンス」ページをご覧ください。