亚马逊AWS官方博客

Category: Artificial Intelligence

使用Amazon SageMaker原生TorchServe集成在生产中支持PyTorch模型

随着客户对于TorchServe需求的不断增长以及PyTorch社区的快速发展,AWS致力于为客户提供一种通用且高效的PyTorch模型托管方式。无论您使用的是Amazon SageMaker、 Amazon Elastic Compute Cloud (Amazon EC2)还是 Amazon Elastic Kubernetes Service (Amazon EKS), 我们都将不断优化后端基础设施并为开源社区提供支持。

使用Amazon SageMaker训练H2O模型并对其服务化

模型训练与服务化可以说是成功建立端到端机器学习(ML)流程的两大基本环节。这两个步骤通常需要不同的软件与硬件设置,才能为生产环境提供最佳组合。模型训练优化的目标是低成本、训练时间长度可行、科学上的灵活性以及良好的模型可解释性等;而模型服务化的优化目标是低成本、高吞吐以及低延迟。

使用Amazon SageMaker与Amazon ES KNN特征构建支持NLU的搜索应用程序

语义搜索引擎的兴起使电子商务与零售企业能够更轻松地为消费者提供搜索服务。基于自然语言理解(NLU)的搜索引擎使您可以通过首选会话语言直接表述自己的需求,而不再只能硬性依赖于以输入设备写下相应关键字。您可以使用母语以单词或句子执行查询,并由搜索引擎负责理解并提供最佳结果。

使用 Amazon SageMaker 托管 Spark 容器与 Amazon SageMaker SDK 按需运行无服务器Apache Spark数据处理作业

Amazon SageMaker广泛使用Docker容器,允许用户构建用于数据准备、训练及推理代码的运行时环境。Amazon SageMaker内置用于Amazon SageMaker Processing的Spark容器则提供一套托管Spark运行时,其中包含运行分布式数据处理工作负载所需要的各类库组件与依赖项。