重要更新

感谢您对 Amazon SageMaker Inference 的关注。Amazon SageMaker Inference 不再面向新客户提供。通过使用 AWS Inferentia 等其他硬件加速选项,您可以以更低的成本为机器学习推理工作负载提供更好的性能。如果您目前正在使用 Amazon Elastic Inference,不妨考虑将您的工作负载迁移到这些替代方案。要了解更多信息,请访问 AWS 机器学习基础设施页面。

使用 Amazon Elastic Inference,您只需为使用加速器的小时数付费。没有前期成本和最低收费。使用 AWS 优化版 TensorFlow 和 Apache MXNet 深度学习框架无需付费。 只要您至少为一个实例配置了加速器,并且该实例在预置了 VPC 终端节点的可用区运行,您就无需为连接到 Amazon Elastic Inference 的 AWS PrivateLink VPC 终端节点额外付费。

适用于 Amazon EC2 的 Amazon Elastic Inference 加速器定价

下面是适用于 Amazon EC2 实例和 Amazon ECS 的 Amazon Elastic Inference 定价。有关适用于 Amazon SageMaker 实例的 Amazon Elastic Inference 定价,请参阅 Amazon SageMaker 定价页面上的“模型部署”部分。

我们拥有 2 个系列的 Elastic Inference 加速器,每一系列有 3 种不同类型。EIA2 是我们最新的加速器类型,其 GPU 内存是等效的 EIA1 加速器的两倍。您可以将 EIA2 挂载到任何 EC2 实例。

注意:请检查 2 个加速器系列的区域可用性,因为它们可能存在差异。

  • 美国东部
  • 美国东部(弗吉尼亚北部)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD

    美国东部(俄亥俄)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD
  • 美国西部
  • 美国西部(俄勒冈)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD
  • 欧洲
  • 欧洲(爱尔兰)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.129 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.258 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.366 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.140 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.280 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.560 USD
  • 亚太地区
  • 亚太地区(东京)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2GB 每小时 0.205 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4GB 每小时 0.411 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8GB 每小时 0.582 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.220 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.450 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.890 USD

    亚太地区(首尔)区域

    加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价
    eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.196 USD
    eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.392 USD
    eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.556 USD
    eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.210 USD
    eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.430 USD
    eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.850 USD

定价示例 1

假设您运行的是流式处理视频分析应用程序。要运行深度学习推理以分析此应用程序中的单个视频流,您可以选择配置有 Amazon Elastic Inference eia2.medium 加速器的 Amazon EC2 c5.xlarge 实例。在美国东部(弗吉尼亚北部)区域运行此深度学习模型的每小时费用为:

c5.xlarge 实例的每小时价格:0.17 USD
eia2.medium 加速器的每小时价格:0.12 USD
配置有加速器的实例的每小时总价:0.29 USD
每月总费用 = 0.29 USD * 24 * 31 = 215.76 USD

定价示例 2

假设您运行的是 Web 应用程序,用于实时分析最终用户上传的图像。要针对此应用程序使用深度学习推理,您可以选择配置有 Amazon Elastic Inference eia2.medium 加速器的 Amazon EC2 c5.large 实例,并使用 Amazon EC2 Auto Scaling 扩展此实例容量来满足应用程序的需求。在美国东部(弗吉尼亚北部)区域使用此组合的每小时费用为:

c5.large 实例的每小时价格:0.085 USD
eia2.medium 加速器的每小时价格:0.12 USD
配置有加速器的实例的每小时总价:0.205 USD
每月总费用 = 0.205 USD * 24 * 31 = 152.52 USD

其他定价资源

AWS 定价计算器

轻松计算 AWS 的月度费用

获取定价协助

联系 AWS 专家获取个性化报价

了解如何开始使用

通过教程和文档了解更多信息

了解更多 
注册免费账户

立即享受 AWS 免费套餐。 

注册 
开始在控制台中构建

在 Amazon SageMaker 或 Amazon EC2 中开始使用 Amazon Elastic Inference。

登录