投稿日: Nov 19, 2020
AWS は、Amazon EC2 Inf1 インスタンスを利用できるリージョンを米国西部 (北カリフォルニア)、カナダ (中部)、欧州 (ロンドン)、アジアパシフィック (香港、ソウル)、および中東 (バーレーン) まで拡大しました。Inf1 インスタンスには、クラウドで高性能で低コストの機械学習推論を提供するように AWS カスタム設計された AWS Inferentia チップが搭載されています。
このようなインスタンスは Amazon EC2 G4 インスタンスよりも、最大 30% 高いスループットと最大 45% 低い推論あたりのコストを実現します。これは、クラウドでの機械学習推論向けインスタンスの中でも最も低いコストでした。Inf1 インスタンスは、画像認識、自然言語処理、パーソナライズ、異常検出などのアプリケーションに最適です。
デベロッパーは、Neuron SDK を含む AWS 深層学習 AMI で Inf1 インスタンスを起動するか、コンテナ化された ML アプリケーション向けの Amazon Elastic Kubernetes Service (EKS) または Amazon Elastic Container Service (ECS) を介して Inf1 インスタンスを使用することにより、独自の機械学習アプリケーション開発プラットフォームを管理できます。SageMaker で、このような新しいリージョンにおける Inf1 インスタンスのサポートがまもなくご利用いただけるようになります。
Amazon EC2 Inf1 インスタンスでは、4 種類のサイズ、最大設定として 16 個の Inferentia チップ、96 個の vCPU、192 GB のメモリ、100 Gbps のネットワーク帯域幅、19 Gbps の Elastic Block Store (EBS) 帯域幅が利用可能です。これらのインスタンスは、オンデマンド、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。このようなインスタンスは、米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン、北カリフォルニア)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、パリ)、アジアパシフィック (香港、ムンバイ、ソウル、シンガポール、シドニー、東京)、中東 (バーレーン)、および南米 (サンパウロ) を含む世界中の 17 のリージョンでご利用いただけます。
使用を開始するには、入門ガイドをご覧ください。詳細については、Amazon EC2 Inf1 インスタンスページをご覧ください。