AWS Deep Learning AMI

在预配置的环境中快速构建可扩展、安全的深度学习应用程序

将分布式机器学习(ML)训练扩展到数千个加速实例,并在生产中无缝部署模型。

利用最新的驱动程序、框架、库和工具开发加速器,包括 AWS 自定义芯片和 Intel Habana。

通过定期修补的自定义、稳定系统映像,解决安全漏洞,降低风险。

工作原理

AWS Deep Learning AMI(DLAMI)为机器学习从业者和研究人员提供一组精心策划的安全框架、依赖项和工具,以加速云中的深度学习。亚马逊云机器镜像(AMI)专为 Amazon Linux 和 Ubuntu 构建,预配置了 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit(CNTK)、Gluon、Horovod 和 Keras,让您可以快速地大规模部署和运行这些框架和工具。

显示如何使用 AWS 管理控制台、AWS 命令行界面(CLI)、AWS 开发工具包、AWS API 或本地终端或应用程序脚本启动 DLAMI 的示意图

使用案例

无人驾驶汽车开发

大规模开发高级 ML 模型,通过使用数百万受支持的虚拟测试验证模型,安全地开无人驾驶汽车 (AV) 技术。

自然语言处理

使用最新的框架和库(包括 Hugging Face Transformers)加快 AWS 实例的安装与配置,同时加快实验和评估流程。

医疗保健数据分析

使用高级分析、ML 和深度学习功能识别趋势,并且根据不同的原始运行状况数据进行预测。

加速模型训练

DLAMI 通过预配置的驱动程序、Intel Math Kernel Library (MKL)、Python 程序包和 Anaconda Platform 包括最新的 NVIDIA GPU 加速。

如何开始

了解如何加快模型训练的速度

了解 DLAMI 如何加快部署和模型训练的速度。

探索 AMI

为您的项目选择正确的 AMI 和实例类型。

进行动手实践培训

通过 10 分钟的教程开始构建。


更深入了解 AWS