概览
AWS Deep Learning AMI(DLAMI)提供加速云端深度学习的工具。AMI 预先配置了常用框架,包括 TensorFlow、PyTorch 和 Apache MXNet。
支持的深度学习 AMI
有关支持的 AMI 的详细信息,请查看发行说明。有关容器化 AI/ML 工作负载,请参阅 AWS Deep Learning 容器。
框架: | PyTorch | TensorFlow | |||
操作系统: | Ubuntu Linux | Amazon Linux 2 | |||
实例: | NVIDIA GPU | AWS Trainium | AWS Inferentia | ||
平台: | Amazon EC2 | Amazon ECS | Amazon EKS | AWS Graviton |
加快模型训练的速度
为了加快开发和模型训练的速度,DLAMI 通过预配置的 CUDA 和 cuDNN 驱动程序、Intel 数学核心函数库(MKL)、常用的 Python 软件包和 Anaconda 平台来包括最新的 NVIDIA GPU 加速功能。
GPU 实例 – NVIDIA
与上一代 Amazon EC2 GPU 计算实例相比,P3 实例的性能最多提高了 14 倍。借助多达 8 个 NVIDIA Tesla V100 GPU,P3 实例可提供高达 1 petaflop 的混合精度、125 teraflop 的单精度和 62 teraflop 的双精度浮点性能。
功能强大的计算 – Intel
C5 实例由 3.0 GHz Intel Xeon 可扩展处理器提供支持,并使用 Intel 睿频加速技术来允许单个内核运行速度高达 3.5 GHz。与 C4 实例相比,C5 实例提供了更高的内存与 vCPU 比率,并且性价比提高了 25%,非常适用于要求苛刻的推理应用程序。
Python 软件包
DLAMI 安装了采用 Python 2.7 和 Python 3.5 内核的 Jupyter Notebook 笔记本,以及常用的 Python 软件包,包括适用于 Python 的 AWS SDK。
Anaconda 平台
为了简化软件包的管理和部署,DLAMI 安装了 Anaconda2 和 Anaconda3 数据科学平台,可以进行大规模数据处理、预测分析和科学计算。