AWS Inferentia

AWS によってカスタマイズされた、高パフォーマンスの機械学習推奨チップ

AWS Inferentia は、低コストで高パフォーマンスを実現するよう設計された機械学習推論チップです。AWS Inferentia では、TensorFlow、Apache MXNet、PyTorch 深層学習フレームワーク、ONNX 形式を使用するモデルをサポートします。

トレーニングを受けた機械学習モデル (推論と呼ばれるプロセス) を使用して予測を行うと、アプリケーションのコンピューティングコストの 90% を促進することができます。Amazon Elastic Inference を使用すると、開発者は Amazon EC2 および Amazon SageMaker インスタンスに GPU による推論アクセラレーションをアタッチすることで、推論コストを最大 75% 削減できます。ただし、一部の推論ワークロードでは GPU 全体が必要とされるか、きわめて低いレイテンシーの要件があります。この課題を低コストで解決するには、専用の推論チップが必要です。

AWS Inferentia は、高スループット、低レイテンシーの推論パフォーマンスを非常に低いコストで提供します。各チップは、数百 TOPS (Tera Operations Per Second) の推論スループットを実現し、複雑なモデルでも高速で予測を実行できます。複数の AWS Inferentia チップを使用して数千 TOPS のスループットを実現し、パフォーマンスをさらに高めることも可能です。AWS Inferentia は Amazon SageMaker、Amazon EC2、Amazon Elastic Inference でご利用いただけます。

サービスの利用可能状況通知にサインアップ

AWS Inferentia の利用可能状況に関する通知を受け取るには、こちらからサインアップしてください。より詳細な情報がご覧いただけるようになったら、メールをお送りします。

Product-Page_Standard-Icons_01_Product-Features_SqInk
サービスの利用可能状況のアップデートを取得

AWS Inferentia は近日中に発表いたします。より詳細な情報が利用可能になったときに通知を受け取るには、サインアップしてください。

詳細 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
無料のアカウントにサインアップ

AWS 無料利用枠にすぐにアクセスできます。 

サインアップ 
Product-Page_Standard-Icons_03_Start-Building_SqInk
AWS コンソールで構築を開始する

AWS コンソールで機械学習を開始する。

サインイン