跳至主要内容

AWS Deep Learning AMI 开发人员功能

AWS Deep Learning AMI

概览

AWS Deep Learning AMI(DLAMI)提供加速云端深度学习的工具。AMI 预先配置了常用框架,包括 TensorFlow、PyTorch 和 Apache MXNet。

支持的深度学习 AMI

Frameworks:
PyTorch
TensorFlow
操作系统:

Ubuntu Linux

Amazon Linux 2

实例:

NVIDIA GPU

AWS Trainium
AWS Inferentia
 
平台:

Amazon EC2

Amazon ECS

Amazon EKS

AWS Graviton

有关支持的 AMI 的详细信息,请查看发行说明。有关容器化 AI/ML 工作负载,请参阅 AWS Deep Learning 容器

加快模型训练的速度

为了加快开发和模型训练的速度,DLAMI 通过预配置的 CUDA 和 cuDNN 驱动程序、Intel 数学核心函数库(MKL)、常用的 Python 软件包和 Anaconda 平台来包括最新的 NVIDIA GPU 加速功能。

GPU 实例 – NVIDIA

与上一代 Amazon EC2 GPU 计算实例相比,P3 实例的性能最多提高了 14 倍。借助多达 8 个 NVIDIA Tesla V100 GPU,P3 实例可提供高达 1 petaflop 的混合精度、125 teraflop 的单精度和 62 teraflop 的双精度浮点性能。

功能强大的计算 – Intel

C5 实例由 3.0 GHz Intel Xeon 可扩展处理器提供支持,并使用 Intel 睿频加速技术来允许单个内核运行速度高达 3.5 GHz。与 C4 实例相比,C5 实例提供了更高的内存与 vCPU 比率,并且性价比提高了 25%,非常适用于要求苛刻的推理应用程序。

Python 软件包

DLAMI 安装了采用 Python 2.7 和 Python 3.5 内核的 Jupyter Notebook 笔记本,以及常用的 Python 软件包,包括适用于 Python 的 AWS SDK。

Anaconda 平台

为了简化软件包的管理和部署,DLAMI 安装了 Anaconda2 和 Anaconda3 数据科学平台,可以进行大规模数据处理、预测分析和科学计算。