投稿日: Sep 24, 2020
AWS は、Amazon EC2 Inf1 インスタンスの利用を、欧州(パリ)、アジアパシフィック(ムンバイ、シンガポール)、南米(サンパウロ)で提供しました。Inf1 インスタンスには、クラウドで高性能で低コストの機械学習推論を提供するようにカスタム設計されたAWS Inferentia チップが搭載されています。
Inf1 インスタンスは、同等の GPU ベースのインスタンスと比較して、推論ごとに最大で 30% 高いスループット、および最大で 45% のコスト削減を実現し、画像認識、自然言語処理、パーソナライゼーション、異常検知などのアプリケーションに最適です。
Inf1 インスタンスの使用を最も簡単かつ迅速に開始するには、機械学習モデルの構築、トレーニング、およびデプロイメントのためのフルマネージドサービスである Amazon SageMaker を使用します。独自の機械学習アプリケーション開発プラットフォームを管理したいというデベロッパーは、Neuron SDK を含む AWS 深層学習 AMI で Inf1 インスタンスを起動するか、あるいはコンテナ化された ML アプリケーション向けの Amazon Elastic Kubernetes Service (EKS) もしくは Amazon Elastic Container Service (ECS) 経由で Inf1 インスタンスを使用することで開始できます。
Amazon EC2 Inf1 インスタンスでは、4 種類のサイズ、最大構成として 16 個の Inferentia チップ、96 個の vCPU、192 GB のメモリ、100 Gbps のネットワーク帯域幅、19 Gbps の Elastic Block Store (EBS) 帯域幅が利用可能です。これらのインスタンスは、オンデマンド、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。これらは、米国東部(北バージニア、オハイオ)、米国西部(オレゴン)、欧州(フランクフルト、アイルランド、パリ)、アジアパシフィック(ムンバイ、シンガポール、シドニー、東京)、南米(サンパウロ)を含む世界の 11 のリージョンで利用できます。
使用を開始するには、入門ガイドをご覧ください。詳細については、Amazon EC2 Inf1 インスタンスページをご覧ください。