概览

AWS Deep Learning AMI(DLAMI)提供加速云端深度学习的工具。AMI 预先配置了常用框架,包括 TensorFlow、PyTorch 和 Apache MXNet。

支持的深度学习 AMI

有关支持的 AMI 的详细信息,请查看发行说明。有关容器化 AI/ML 工作负载,请参阅 AWS Deep Learning 容器

  框架: PyTorch TensorFlow    
  操作系统: Ubuntu Linux Amazon Linux 2    
  实例: NVIDIA GPU AWS Trainium AWS Inferentia  
  平台: Amazon EC2 Amazon ECS Amazon EKS AWS Graviton

加快模型训练的速度

为了加快开发和模型训练的速度,DLAMI 通过预配置的 CUDA 和 cuDNN 驱动程序、Intel 数学核心函数库(MKL)、常用的 Python 软件包和 Anaconda 平台来包括最新的 NVIDIA GPU 加速功能。

GPU 实例 – NVIDIA

与上一代 Amazon EC2 GPU 计算实例相比,P3 实例的性能最多提高了 14 倍。借助多达 8 个 NVIDIA Tesla V100 GPU,P3 实例可提供高达 1 petaflop 的混合精度、125 teraflop 的单精度和 62 teraflop 的双精度浮点性能。

功能强大的计算 – Intel

C5 实例由 3.0 GHz Intel Xeon 可扩展处理器提供支持,并使用 Intel 睿频加速技术来允许单个内核运行速度高达 3.5 GHz。与 C4 实例相比,C5 实例提供了更高的内存与 vCPU 比率,并且性价比提高了 25%,非常适用于要求苛刻的推理应用程序。

Python 软件包

DLAMI 安装了采用 Python 2.7 和 Python 3.5 内核的 Jupyter Notebook 笔记本,以及常用的 Python 软件包,包括适用于 Python 的 AWS SDK。

Anaconda 平台

为了简化软件包的管理和部署,DLAMI 安装了 Anaconda2 和 Anaconda3 数据科学平台,可以进行大规模数据处理、预测分析和科学计算。

Read the documentation
探索 AMI

为您的项目选择正确的 AMI 和实例类型。

阅读指南 
进行动手实践培训

通过 10 分钟的教程开始构建。

了解更多 
Next-Steps-Create-account
准备好开始构建?

开始使用 AWS Deep Learning AMI

开始使用