使用 Amazon Elastic Inference,您只需为使用加速器的小时数付费。没有前期成本和最低收费。使用 AWS 优化版 TensorFlow 和 Apache MXNet 深度学习框架无需付费。 只要您至少为一个实例配置了加速器,并且该实例在预置了 VPC 终端节点的可用区运行,您就无需为连接到 Amazon Elastic Inference 的 AWS PrivateLink VPC 终端节点额外付费。
适用于 Amazon EC2 的 Amazon Elastic Inference 加速器定价
下面是适用于 Amazon EC2 实例和 Amazon ECS 的 Amazon Elastic Inference 定价。有关适用于 Amazon SageMaker 实例的 Amazon Elastic Inference 定价,请参阅 Amazon SageMaker 定价页面上的“模型部署”部分。
我们拥有 2 个系列的 Elastic Inference 加速器,每一系列有 3 种不同类型。EIA2 是我们最新的加速器类型,其 GPU 内存是等效的 EIA1 加速器的两倍。您可以将 EIA2 挂载到任何 EC2 实例。
注意:请检查 2 个加速器系列的区域可用性,因为它们可能存在差异。
-
美国东部
-
美国西部
-
欧洲
-
亚太地区
-
美国东部
-
美国东部(弗吉尼亚北部)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD 美国东部(俄亥俄)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD -
美国西部
-
美国西部(俄勒冈)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.120 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.240 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.340 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.130 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.260 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.520 USD -
欧洲
-
欧洲(爱尔兰)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.129 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.258 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.366 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.140 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.280 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.560 USD -
亚太地区
-
亚太地区(东京)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2GB 每小时 0.205 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4GB 每小时 0.411 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8GB 每小时 0.582 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.220 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.450 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.890 USD 亚太地区(首尔)区域
加速器类型 吞吐量:每秒万亿次 32 位浮点运算 (FP-32 TFLOPS) 吞吐量:每秒万亿次 16 位浮点运算 (FP-16 TFLOPS) 内存 定价 eia2.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 2 GB 每小时 0.196 USD eia2.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 4 GB 每小时 0.392 USD eia2.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 8 GB 每小时 0.556 USD eia1.medium 1 FP-32 TFLOPS 8 FP-16 TFLOPS 1GB 每小时 0.210 USD eia1.large 2 FP-32 TFLOPS 16 FP-16 TFLOPS 2GB 每小时 0.430 USD eia1.xlarge 4 FP-32 TFLOPS 32 FP-16 TFLOPS 4GB 每小时 0.850 USD
定价示例 1
假设您运行的是流式处理视频分析应用程序。要运行深度学习推理以分析此应用程序中的单个视频流,您可以选择配置有 Amazon Elastic Inference eia2.medium 加速器的 Amazon EC2 c5.xlarge 实例。在美国东部(弗吉尼亚北部)区域运行此深度学习模型的每小时费用为:
c5.xlarge 实例的每小时价格:0.17 USD
eia2.medium 加速器的每小时价格:0.12 USD
配置有加速器的实例的每小时总价:0.29 USD
每月总费用 = 0.29 USD * 24 * 31 = 215.76 USD
定价示例 2
假设您运行的是 Web 应用程序,用于实时分析最终用户上传的图像。要针对此应用程序使用深度学习推理,您可以选择配置有 Amazon Elastic Inference eia2.medium 加速器的 Amazon EC2 c5.large 实例,并使用 Amazon EC2 Auto Scaling 扩展此实例容量来满足应用程序的需求。在美国东部(弗吉尼亚北部)区域使用此组合的每小时费用为:
c5.large 实例的每小时价格:0.085 USD
eia2.medium 加速器的每小时价格:0.12 USD
配置有加速器的实例的每小时总价:0.205 USD
每月总费用 = 0.205 USD * 24 * 31 = 152.52 USD