发布于: Jul 15, 2022
Amazon SageMaker 将使用范围扩展到新的机器学习实例,以便客户可以在最适合其工作负载的实例上部署模型。现在,客户可以针对异步和实时模型部署选项使用 ml.g5、ml.p4d 和 ml.c6i 实例。
AWS 的愿景是将机器学习技术普及给日常开发人员,并推广以低成本、即用即付型使用模式提供的前沿基础设施。为了实现这一愿景,我们正在快速创新,不断为机器学习工作负载提供性能更好、成本更低的基础设施。
- 与 G4dn 实例相比,ml.g5 实例可提供高达 3 倍的性能,并且将机器学习推理的单位成本性能提高了高达 40%。它们是一款高性能且成本高效的解决方案,适用于想要使用诸如 TensorRT、CUDA 和 cuDNN 之类的 NVIDIA 库来运行其机器学习应用程序的客户。这些实例非常适合用于推荐、聊天机器人、智能助手和图像识别等使用案例。ml.g5 实例已在美国东部(弗吉尼亚州北部)、美国西部(俄勒冈州)和欧洲地区(爱尔兰)区域推出。
- 与上一代 P3 实例相比,ml.p4d 实例为深度学习模型提供平均高达 2.5 倍的性能。每个 GPU 拥有 40GB 的内存,并支持高达 8TB 的本地 NVMe SSD 存储,支持高性能机器学习推理(例如大型语言模型和计算机视觉模型)的大型模型和数据集的本地存储。ml.p4d 实例现已在美国东部(弗吉尼亚州北部)和美国西部(俄勒冈州)区域推出。
- ml.c6i 实例由第 3 代英特尔至强可扩展处理器提供支持,与 C5 实例相比,针对各种工作负载提供高出 15% 的单位成本性能。C6i 实例还提供更大的新尺寸,最多可达 128 个 vCPU 和 256GiB 内存,使客户能够在更少的实例上整合工作负载。C6i 实例支持全新英特尔高级矢量扩展 (AVX 512) 指令、英特尔睿频加速技术和英特尔深度学习加速技术,可以进一步提高机器学习工作负载的性能。ml.c6i 现已在所有商业区域推出。
有关这些实例的定价信息,请访问我们的定价页面。