发布于: Dec 7, 2018
今天,我们宣布推出 P3 实例系列的最新成员 Amazon EC2 P3dn.24xlarge GPU 实例。P3dn.24xlarge 实例的网络带宽高达 P3.16xlarge 实例的 4 倍,已针对分布式机器学习和 HPC 应用进行了优化。这些新型实例提供高达 100Gbps 的网络吞吐量,96 个定制 Intel® Xeon® Scalable (Skylake) vCPU,8 个 NVIDIA® V100 Tensor Core GPU,每个具有 32GB 内存,300 GB/s NVLINK GPU 互连,以及 1.8TB 本地 NVMe SSD 存储。
利用更快的网络速度、带有更多 vCPU 的全新处理器、两倍 GPU 内存和快速的本地实例存储,开发人员不仅可以优化单个实例的性能,还可大大缩短训练机器学习模型的时间,或者通过跨多个实例(例如 16、32 或 64 个实例)扩展作业来运行更多 HPC 模拟。
AWS 是首家提供 100 Gbps 网络吞吐量的云提供商,有助于消除数据传输瓶颈并优化 GPU 利用率,继而实现最高实例性能。此外,每个 GPU 的内存从 16 GB 提高到 32 GB 后,训练更高级更大型的机器学习模型也变得很灵活,并且可以处理更大批量的数据,例如用于图像分类和对象检测系统的 4k 图像。
下面是 P3dn.24xlarge 实例与现有 P3 实例的对比结果。
实例大小 | GPU – Tesla V100 | GPU 对等 | GPU 内存 (GB) | vCPU | 内存 (GB) | 网络带宽 | EBS 带宽 | 本地实例存储 |
---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | 不适用 | 16 | 8 (Broadwell) | 61 | 最高 10Gbps | 1.5Gbps | 不适用 |
p3.8xlarge | 4 |
NVLink | 64 | 32 (Broadwell) | 244 | 10Gbps | 7Gbps | 不适用 |
p3.16xlarge | 8 | NVLink | 128 | 64 (Broadwell) | 488 | 25Gbps | 14Gbps | 不适用 |
p3dn.24xlarge | 8 | NVLink | 256 | 96 (Skylake) | 768 | 100Gbps | 14Gbps | 2 x 900 GB NVMe SSD |
P3dn.24xlarge 以按需实例、预留实例或 Spot 实例形式在美国东部(弗吉尼亚北部)和美国西部(俄勒冈) AWS 区域推出。如需进一步了解 P3 实例及 Airbnb、Salesforce 和 Western Digital 等客户对 P3 实例的使用,请访问 P3 页面。