張貼日期: Oct 25, 2019

Amazon Elastic Inference 已推出稱為 EIA2 的新 Elastic Inference 加速器,具有高達 8GB 的 GPU 記憶體。客戶現在可以在更大的模型或具有更大輸入大小的模型上使用 Amazon Elastic Inference,以用於影像處理、物件偵測、影像分類、自動語音處理和自然語言處理及其他深度學習使用案例。

Amazon Elastic Inference 可讓您將適量的 GPU 支援加速功能附加到任何 Amazon EC2 執行個體、Amazon SageMaker 執行個體或 Amazon ECS 任務,最多可節省 75% 執行深度學習推論的成本。您可以透過 Amazon Elastic Inference 選擇最適合應用程式整體 CPU 和記憶體需求的執行個體類型,然後單獨設定所需的推論加速數量,無須變更程式碼。在此之前,您可以在 Elastic Inference 上最多佈建 4GB 的 GPU 記憶體。現在,您可以從 3 種新的加速器類型中選擇,分別具有 2GB、4GB 和 8GB 的 GPU 記憶體。Amazon Elastic Inference 支援 TensorFlow、Apache MXNet 和 ONNX 模型,未來將會支援更多架構。

美國東部 (維吉尼亞)、美國西部 (奧勒岡)、美國東部 (俄亥俄)、亞太區域 (首爾) 和 歐洲 (愛爾蘭) 提供了新的 Elastic Inference 加速器。對其他區域的支援將在近期內推出。

如需詳細資訊,請參閱 Amazon Elastic Inference 產品頁面文件