发布于: Dec 3, 2019
AWS Deep Learning AMI 可在采用 TensorFlow 1.15、Tensorflow 2.0、PyTorch 1.3.1、MXNet 1.6.0-rc0 的 Ubuntu 18.04、Ubuntu 16.04、Amazon Linux 2 和 Amazon Linux 上使用。本版本还新增了对 AWS Neuron(使用 AWS Inferentia 芯片运行推理的开发工具包)的支持。它由编译器、运行时和性能分析工具组成,使开发人员能够使用基于 Inferentia 的 EC2 Inf1 实例运行高性能、低延迟的推理。Neuron 已预先集成到常用机器学习框架中,其中包括 TensorFlow、Pytorch 和 MXNet,以确保 EC2 Inf1 实例达到最佳性能。使用 Amazon EC2 Inf1 实例的客户在云中进行机器学习推理时将获得超高性能而且成本极低,并且在生产环境中运行大型机器学习模型时,不再需要为优化延迟或吞吐量进行次优权衡。
AWS Deep Learning AMI 还支持 Keras、Chainer 和 Gluon 等接口,所有这些都已预先安装并进行了完善配置,让您在几分钟内即可开始开发深度学习模型,同时利用 Amazon EC2 实例的计算能力和灵活性优势。您激活 Conda 环境后,Deep Learning AMI 会自动部署为您选择的 EC2 实例优化的更高性能版本的框架。如需 AWS Deep Learning AMI 支持的框架和版本的完整列表,请查看发行说明。