張貼日期: Dec 3, 2019

今天,我們宣布正式推出 Amazon EC2 Inf1 執行個體,這是專為支援機器學習推論應用程式設計的全新執行個體。Inf1 執行個體內建最多 16 片 AWS Inferentia 晶片,這些高效能機器學習推論晶片是由 AWS 設計和建構。此外,我們在 Inferentia 晶片中結合了最新的自訂第 2 代 Intel® Xeon® Scalable 處理器,以及最高 100 Gbps 聯網, 帶來高輸送量推論。此強大組態促進 Inf1 執行個體帶來高達 3 倍的更佳輸送量以及比 Amazon EC2 G4 執行個體低最多 40% 的每次推論成本,可說是目前市面上雲端的機器學習推論中的最低成本執行個體。

Amazon EC2 Inf1 執行個體提供雲端內的高效能和最低成本機器學習推論。顧客可以雲端最低成本,使用 Inf1 執行個體執行大型的機器學習推論應用程式,例如,影像辨識、語音辨識、自然語言處理、個人化作業和詐騙偵測。 

AWS 可讓您輕鬆在 Amazon EC2 Inf1 執行個體上部署機器學習應用程式。您的模型訓練後,您可以使用 AWS Neuron,這是使用 AWS Inferentia 晶片執行推論的 SDK,這些晶片由編譯器、執行時間和分析工具組成。Neuron 已預先整合至熱門機器學習框架,包括 TensorFlow、Pytorch 和 MXNet,以提供 EC2 Inf1 執行個體的最佳效能。Inf1 執行個體可使用 AWS 深度學習 AMI 進行部署,將可透過受管服務使用,例如 Amazon SageMakerEKSECS

Amazon EC2 Inf1 執行個體有 4 種大小且可在美國東部 (維吉尼亞北部) 和美國西部 (奧勒岡) AWS 區域作為隨需、預留和 Spot 執行個體或 Savings Plan 的一部分提供。要進一步了解 Inf1 執行個體,請瀏覽 Inf1 頁面