AWS Deep Learning AMI 可以为机器学习从业人员和研究人员提供基础设施和各种工具,从而加快在云中进行任意规模的深度学习的速度。您可以快速启动预先安装了常见深度学习框架和界面(如 TensorFlow、PyTorch、Apache MXNet、Chainer、Gluon、Horovod 和 Keras)的 Amazon EC2 实例来训练复杂的自定义 AI 模型、试验新算法或学习新技能和技巧。
无论您需要 Amazon EC2 GPU 还是 CPU 实例,都无需为 Deep Learning AMI 支付额外费用,您只需为存储和运行应用程序所需的 AWS 资源付费即可。
Conda AMI
对于希望在独立虚拟环境中预先安装深度学习框架 pip 软件包的开发人员,我们提供支持 Ubuntu、Amazon Linux 和 Windows 2016 的基于 Conda 的 AMI。
Base AMI
对于想要从头开始设置私人深度学习引擎存储库或自定义构建深度学习引擎的开发人员,我们提供支持 Ubuntu 和 Amazon Linux 的 Base AMI。
支持深度学习框架
AWS Deep Learning AMI 支持所有允许您定义模型并大规模对其进行训练的常见深度学习框架。AMI 专为 Amazon Linux 和 Ubuntu 构建,预配置了 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit、Gluon、Horovod 和 Keras,让您可以快速地大规模部署和运行这些框架和工具。








加快模型训练的速度
为了加快开发和模型训练的速度,AWS Deep Learning AMI 安装了常用的 Python 软件包和 Anaconda 平台,并通过预配置的 CUDA 和 cuDNN 驱动程序以及 Intel 数学核心函数库 (MKL) 来提供最新的 NVIDIA GPU 加速功能。
GPU 实例

与上一代 Amazon EC2 GPU 计算实例相比,P3 实例的性能最多提高了 14 倍。借助多达 8 个 NVIDIA Tesla V100 GPU,P3 实例可提供高达 1 petaflop 的混合精度、125 teraflop 的单精度和 62 teraflop 的双精度浮点性能。
功能强大的计算

C5 实例由 3.0 GHz Intel Xeon 可扩展处理器提供支持,并使用 Intel 睿频加速技术来允许单个内核运行速度高达 3.5 GHz。与 C4 实例相比,C5 实例提供了更高的内存与 vCPU 比率,并且性价比提高了 25%,非常适用于要求苛刻的推理应用程序。
Python 软件包

AWS Deep Learning AMI 安装了采用 Python 2.7 和 Python 3.5 内核的 Jupyter Notebook 应用程序,还附带常用的 Python 软件包,包括适用于 Python 的 AWS 软件开发工具包。
Anaconda 平台

为了简化软件包的管理和部署,AWS Deep Learning AMI 安装了 Anaconda2 和 Anaconda3 数据科学平台,可以进行大规模数据处理、预测分析和科学计算。
开始使用 AWS 上的深度学习
用于机器学习的 Amazon SageMaker
Amazon SageMaker 是一项完全托管的服务,可以帮助开发人员和数据科学家快速轻松地构建、训练和部署任何规模的机器学习模型。Amazon SageMaker 消除了通常会阻碍开发人员使用 Machine Learning 的所有障碍。