投稿日: Dec 3, 2019

本日、Amazon EC2 Inf1 インスタンスの一般公開を発表しました。これは、機械学習推論アプリケーションをサポートするため、一から構築されたインスタンスです。Inf1 インスタンスでは、AWS が設計、開発した、ハイパフォーマンス機械学習推論チップ、AWS Inferentia チップを 16 基まで利用できます。さらに、推論チップを最新のカスタム第 2 世代インテル® Xeon® スケーラブルプロセッサおよび最大 100 Gbps のネットワークと組み合わせることにより、ハイスループットの推論を可能にしました。このパワフルな構成により、Inf1 インスタンスは、すでにクラウドで利用可能な機械学習推論インスタンスで最も低コストなインスタンスである Amazon EC2 G4 インスタンスと比較しても、推論作業あたり 3 倍のスループット、40% のコスト削減を実現しました。

Amazon EC2 Inf1 インスタンスは、ハイパフォーマンスで、クラウドでコスト最小の機械学習推論を実現しました。Inf1 インスタンスを使用すれば、お客様は、画像認識、音声認識、自然言語処理、パーソナライズ、不正検知といった大規模な機械学習推論アプリケーションを、クラウドで最小のコストで実行することができます。 

AWS は、Amazon EC2 Inf1 インスタンスに機械学習アプリケーションを簡単にデプロイできるようにしました。モデルをトレーニングしたら、AWS Neuron をご利用いただけます。これは、コンパイラ、ランタイム、プロファイリングツールで構成される AWS Inferentia チップを使用して推論を実行する SDK です。Neuron は、TensorFlow、Pytorch、MXNet などの一般的な機械学習フレームワークにも統合済みです。このため、EC2 Inf1 インスタンスの最適なパフォーマンスが実現します。Inf1 インスタンスは AWS 深層学習 AMI を使用してデプロイできます。Amazon SageMakerEKSECS などのマネージドサービスを介してご利用いただけます。

Amazon EC2 Inf1 インスタンスには 4 つのサイズがあり、米国東部 (バージニア北部) および米国西部 (オレゴン) の AWS リージョンにおいて、オンデマンド、リザーブド、スポットインスタンスとして、または貯蓄プランの一部としてご利用いただけます。Inf1 インスタンスの詳細については、Inf1 ページをご覧ください。