亚马逊AWS官方博客

Category: Artificial Intelligence

Sagemaker Neo优化目标检测模型加速推理

该文以目标检测模型着手,演示如何一步步基于Sagemaker Neo对训练后的模型文件进行编译优化,来提升模型的推理速度。 文中以yolo3(backbone为mobilenet1.0)模型为例,分别演示模型准备,模型Neo编译,模型导出推理测试,可视化等过程, 推理结果显示基于Sagemaker Neo可以显著提升推理速度,达到一倍以上的加速。

Amazon DeepRacer 设备软件现已开源

Amazon DeepRacer 是开始使用机器学习 (ML) 的最快方式。您可以在基于云的虚拟模拟器中使用 1/18 比例自动驾驶车辆训练强化学习 (RL) 模型,并在全球 Amazon DeepRacer League 中角逐奖金和荣誉。今天,我们将通过对 Amazon DeepRacer 设备软件进行开源来扩展 Amazon DeepRacer 功能,以提供有趣的动手学习。

使用Amazon SageMaker原生TorchServe集成在生产中支持PyTorch模型

随着客户对于TorchServe需求的不断增长以及PyTorch社区的快速发展,AWS致力于为客户提供一种通用且高效的PyTorch模型托管方式。无论您使用的是Amazon SageMaker、 Amazon Elastic Compute Cloud (Amazon EC2)还是 Amazon Elastic Kubernetes Service (Amazon EKS), 我们都将不断优化后端基础设施并为开源社区提供支持。

使用Amazon SageMaker训练H2O模型并对其服务化

模型训练与服务化可以说是成功建立端到端机器学习(ML)流程的两大基本环节。这两个步骤通常需要不同的软件与硬件设置,才能为生产环境提供最佳组合。模型训练优化的目标是低成本、训练时间长度可行、科学上的灵活性以及良好的模型可解释性等;而模型服务化的优化目标是低成本、高吞吐以及低延迟。