将分布式机器学习(ML)训练扩展到数千个加速实例,并在生产中无缝部署模型。
利用最新的驱动程序、框架、库和工具开发加速器,包括 AWS 自定义芯片和 Intel Habana。
通过定期修补的自定义、稳定系统映像,解决安全漏洞,降低风险。
工作原理
AWS Deep Learning AMI(DLAMI)为机器学习从业者和研究人员提供一组精心策划的安全框架、依赖项和工具,以加速云中的深度学习。亚马逊云机器镜像(AMI)专为 Amazon Linux 和 Ubuntu 构建,预配置了 TensorFlow、PyTorch、Apache MXNet、Chainer、Microsoft Cognitive Toolkit(CNTK)、Gluon、Horovod 和 Keras,让您可以快速地大规模部署和运行这些框架和工具。

使用案例
无人驾驶汽车开发
大规模开发高级 ML 模型,通过使用数百万受支持的虚拟测试验证模型,安全地开无人驾驶汽车 (AV) 技术。
自然语言处理
使用最新的框架和库(包括 Hugging Face Transformers)加快 AWS 实例的安装与配置,同时加快实验和评估流程。
医疗保健数据分析
使用高级分析、ML 和深度学习功能识别趋势,并且根据不同的原始运行状况数据进行预测。
加速模型训练
DLAMI 通过预配置的驱动程序、Intel Math Kernel Library (MKL)、Python 程序包和 Anaconda Platform 包括最新的 NVIDIA GPU 加速。