发布于: May 10, 2022

新的升级现在适用于使用 Amazon SageMaker 笔记本实例的客户,其中包括可使用 ml.g5 GPU 实例系列和 Python 3.8 支持。

Amazon SageMaker 客户现在可以在使用 Amazon Linux 2(AL2)操作系统创建 Amazon SageMaker 笔记本实例时选择由 NVIDIA A10G Tensor Core GPU 提供技术支持的 ml.g5 实例。ml.g5 实例配备多达 8 个 NVIDIA A10G Tensor Core GPU 和第二代 AMD EPYC 处理器。它们还支持最多 192 个 vCPU、最高 100 Gbps 的网络带宽和最多 7.6 TB 的本地 NVMe SSD 存储。客户可以从 8 个选项(提供 1 到 8 个 GPU)中选择最合适的实例大小。要了解有关 ml.g5 实例的更多信息,请阅览 AWS 新闻博客或访问 G5 实例页面以了解更多信息。

除此以外,客户现在还可以在 Amazon SageMaker 笔记本实例上使用 Python 3.8 内核及其笔记本。客户可以从使用 Python 3.8 的 Conda 映像中为他们的笔记本选择 Pytorch 或 Tensorflow。

Python 3.8 内核已在所有公共 AWS 区域中推出,而 ml.g5 实例则已经在以下 AWS 区域推出:美国东部(弗吉尼亚北部)、美国西部(俄勒冈)和欧洲(爱尔兰)。

要开始使用,请访问 Amazon SageMaker 控制台,并且在 AL2 操作系统上创建 SageMaker 笔记本时从八种可用的 ml.g5 实例当中选择一种。然后在多种内核选项中选择 conda_tensorflow2_p38 或 conda_pytorch_p38。