投稿日: Mar 23, 2021

AWS が Amazon EC2 Inf1 インスタンスの利用を欧州 (ミラノ)、欧州 (ストックホルム)、AWS GovCloud (米国) リージョンに拡大しました。Inf1 インスタンスには、クラウドにおいて、高性能で低コストの機械学習推論を提供するようにカスタム設計された AWS Inferentia チップが搭載されています。 

このようなインスタンスは Amazon EC2 G4dn インスタンスよりも、最大 30% 高いスループットと最大 45% 低い推論あたりのコストを実現します。これは、クラウドでの機械学習推論向けインスタンスの中でも最も低いコストでした。Inf1 インスタンスは、画像認識、自然言語処理、パーソナライズ、異常検出などのアプリケーションに最適です。デベロッパーは、Neuron SDK を含む AWS 深層学習 AMI で Inf1 インスタンスを起動するか、コンテナ化された ML アプリケーション向けの Amazon Elastic Kubernetes Service (EKS) または Amazon Elastic Container Service (ECS) を介して Inf1 インスタンスを使用することにより、独自の機械学習アプリケーション開発プラットフォームを管理できます。EKS、ECS、SageMaker で、このような新しいリージョンにおける Inf1 インスタンスのサポートが、まもなくご利用いただけるようになります。

Amazon EC2 Inf1 インスタンスでは、4 種類のサイズ、最大設定として 16 個の Inferentia チップ、96 個の vCPU、192 GB のメモリ、100 Gbps のネットワーク帯域幅、19 Gbps の Elastic Block Store (EBS) 帯域幅が利用可能です。これらのインスタンスは、オンデマンドで リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部として購入可能で、米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン、北カリフォルニア)、AWS GovCloud (米国東部、米国西部)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、ミラノ、パリ、ストックホルム)、アジアパシフィック (香港、ムンバイ、ソウル、シンガポール、シドニー、東京)、中東 (バーレーン)、南米 (サンパウロ) の 21 リージョンで世界的にご利用いただけます。

使用を開始するには、入門ガイドをご覧ください。詳細については、Amazon EC2 Inf1 インスタンスページをご覧ください。