立即开始

 

AWS Deep Learning AMI 可以为数据科学家、机器学习专业人员和研究科学家提供基础设施和各种工具,从而加快在云中进行任意规模的深度学习工作的速度。您可以在 Amazon Linux 或 Ubuntu 上快速启动预装了各种常见深度学习框架的 Amazon EC2 实例,以便训练复杂的自定义 AI 模型、试验新算法或者学习新技能和技术。借助 Deep Learning AMI,您可以创建托管的自动扩展 GPU 群集来进行大规模训练,也可以使用 Apache MXNet、TensorFlow、Microsoft Cognitive Toolkit (CNTK)、Caffe、Caffe2、Theano、Torch 和 Keras,在采用计算优化型或通用 CPU 实例并受过训练的模型上运行推理。

 

100x100_benefit_provisioned

快速开始

为了让您在云中快速开始使用深度学习 Amazon EC2 实例,Deep Learning AMI 预置了许多常见的深度学习框架,而且每个框架都附带了方便使用的教程,为您演示正确的安装、配置和模型精确度。

100x100_benefit_easy-steps

轻松设置和配置

Deep Learning AMI 会安装依赖项、跟踪库的版本并验证代码兼容性。AMI 每个月都会更新,让您始终可以获得最新版本的引擎和数据科学库。

 

100x100_benefit_pay-as-you-go

按使用量付费

无论需要的是 Amazon EC2 GPU 实例还是 CPU 实例,您都无需为 Deep Learning AMI 支付额外的费用。您只需按小时为存储和运行应用程序所需的 AWS 资源支付费用。

 

深度学习通常在技术上具有挑战性,要求您了解模型本身的数学原理,并在扩展跨大型分布式系统的训练和推理方面具有经验。因此出现了一些深度学习框架,让您能够定义模型并对其进行大规模训练。针对 Amazon Linux 和 Ubuntu,AWS Deep Learning AMI 预配置了 Apache MXNet、TensorFlow、Microsoft Cognitive Toolkit (CNTK)、Caffe、Caffe2、Theano、Torch 和 Keras,让您可以快速地大规模部署和运行这些框架。

 

深度学习框架使用神经网络,其中涉及增加大量矩阵的过程。为了加快模型训练和深度学习研发的速度,AWS Deep Learning AMI 安装了常用的 Python 软件包和 Anaconda 平台,并通过预配置的 CUDA 和 cuDNN 驱动程序以及 Intel 数学核心函数库 (MKL) 来提供 GPU 加速功能。

NVIDIA

在 Amazon EC2 P2 实例上运行的 AWS Deep Learning AMI 为所有受支持的深度学习框架预装了 NVIDIA CUDA 和 cuDNN 驱动程序,可以大大缩短完成计算的时间。

Intel MKL

在针对 Amazon EC2 实例使用基于 Intel 的处理器时,Deep Learning AMI 集成了 Intel 数学核心函数库 (MKL),可以加快数学处理和神经网络例程的速度。

Python

AWS Deep Learning AMI 安装了采用 Python 2.7 和 Python 3.4 内核的 Jupyter (之前称为 iPython) Notebook 应用程序,还附带常用的 Python 软件包,包括适用于 Python 的 AWS 软件开发工具包

Anaconda

为了简化软件包的管理和部署,AWS Deep Learning AMI 安装了 Anaconda2 和 Anaconda3 数据科学平台,可以进行大规模数据处理、预测分析和科学计算。

 

一次单击部署深度学习计算实例

AWS Deep Learning AMI 可以从 AWS Marketplace 中快速启动。您可以选择用于大规模训练的 GPU 或选择用于运行推理的 CPU,实现稳定、安全和高性能的执行环境,以便运行深度学习应用程序,同时采用按需付费的定价模式。

查看 AI 博客了解快速入门指南 >>

利用 AWS CloudFormation Deep Learning 模板来简化设置

为了在多个实例上进行训练,Deep Learning CloudFormation 模板使用 Deep Learning AMI 提供了一种简单的方式来快速启动您的所有资源。 

您可以立即从 GitHub 存储库下载模板并启动 CloudFormation 堆栈