发布于: Nov 28, 2018
借助Amazon Elastic Inference,您可以将适量 GPU 驱动的加速功能附加到任何 Amazon EC2 和 Amazon SageMaker 实例,以将运行深度学习推理的成本降低多达 75%。Amazon Elastic Inference 支持 TensorFlow、Apache MXNet 和 ONNX 模型,即将推出更多框架。
借助 Amazon Elastic Inference,您现在可以选择最适合应用程序的总体 CPU 和内存需求的实例类型,然后单独配置所需的推理加速量级而无需更改代码。这让您能够有效地使用资源并降低运行推理的成本。有关 Amazon Elastic Inference 的更多新,请参阅服务详细信息页面。