投稿日: Aug 13, 2020
AWS は、Amazon EC2 Inf1 インスタンス が利用できるリージョンを米国東部 (オハイオ)、欧州 (フランクフルト、アイルランド) およびアジアパシフィック (シドニー、東京) リージョンに拡大しました。Inf1 インスタンスには、お客様にクラウドで最小の推論単価を提供し、ごく普通のデベロッパーが機械学習を大規模に使用する上でのハードルを下げるために Amazon が特別に設計した AWS Inferentia チップが搭載されています。
Inf1 インスタンスは、同等の GPU ベースのインスタンスと比較して、推論ごとに最大で 30% 高いスループット、および最大で 45% 低いコストを実現し、画像認識、自然言語処理、パーソナライゼーション、異常検知などのアプリケーションに最適です。デベロッパーは、TensorFlow、PyTorch、および MXNet といった人気の機械学習フレームワークと統合された AWS Neuron SDK を使って Inf1 インスタンスに機械学習モデルをデプロイできます。AWS Neuron SDK は、AWS Inferentia での推論パフォーマンスを最適化するためのコンパイラ、ランタイム、およびプロファイリングツールで構成されています。
追加リージョンでのローンチに伴い、Inf1 インスタンスは米国東部 (バージニア東部、オハイオ)、米国西部 (オレゴン)、欧州 (フランクフルト、アイルランド)、およびアジアパシフィック (シドニー、東京) の各 AWS リージョンでご利用いただけるようになりました。Inf1 インスタンスには、最大 16 個の Inferentia チップを搭載した 4 つのサイズがあり、最大 2,000 TOPS (Tera Operations per Second) のスループットと最大 100 Gbps のネットワーク帯域幅を提供します。これらは、オンデマンド、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。
最も簡単かつ迅速に Inf1 インスタンスの使用を開始する方法は、機械学習モデルの構築、トレーニング、およびデプロイメントのためのフルマネージドサービスである Amazon SageMaker を使用する方法です。独自の機械学習アプリケーション開発プラットフォームを管理したいというデベロッパーは、Neuron SDK が含まれる AWS Deep Learning AMI で Inf1 インスタンスを起動する、またはコンテナ化された ML アプリケーション向けの Amazon Elastic Kubernetes Service (EKS) もしくは Amazon Elastic Container Service (ECS) 経由で Inf1 インスタンスを使用することによって開始できます。
詳細については、Amazon EC2 Inf1 インスタンスページをご覧ください。