張貼日期: Dec 12, 2019
現在,您可以將多個 Amazon Elastic Inference 加速器附加至單一 Amazon EC2 執行個體。藉助此功能,當您為多個模型執行推斷時,可以在自動調整規模的群組使用單一 EC2 執行個體。透過將多個加速器附加至單一執行個體,您可以避免為推斷部署多個 CPU 或 GPU 執行個體的自動調整規模群組,並降低營運成本。
Amazon Elastic Inference 可讓您將適當的 GPU 支援加速功能附加至任何 Amazon EC2 執行個體,最多可節省 75% 執行深度學習推論的成本。由於您的模型可能需要不同數量的 GPU 記憶體和運算容量,因此,您可以選擇不同的 Elastic Inference 加速器大小以附加至您的 CPU 執行個體。為縮短回應時間,您可以一次性將模型載入加速器,然後繼續進行推斷叫用而無需卸載模型。
提供 Amazon Elastic Inference 的所有區域皆可支援新增多個加速器至 EC2 執行個體。如需有關將多個加速器附加至單一執行個體的詳細資訊,請參閱 Using TensorFlow Models with Elastic Inference 和 Using MXNet Models with Elastic Inference。