張貼日期: Nov 28, 2018

Amazon Elastic Inference 可讓您將適當的 GPU 支援加速功能附加到任何 Amazon EC2 和 Amazon SageMaker 執行個體,最多可節省 75% 執行深度學習推論的成本。Amazon Elastic Inference 支援 TensorFlow、Apache MXNet 和 ONNX 模型,未來將會支援更多架構。 

您現在可以透過 Amazon Elastic Inference 選擇最適合應用程式整體 CPU 和記憶體需求的執行個體類型,然後單獨設定所需的推論加速數量,無須變更程式碼。這可讓您有效率地運用資源,進而降低執行推論的成本。要進一步了解 Amazon Elastic Inference,請參見服務詳細資訊頁面