发布于: Nov 18, 2022
今天,我们宣布在 SageMaker JumpStart 中公开提供 Amazon 最先进的具有 200 亿个参数模型的 Alexa Teacher Model (AlexaTM 20B)。客户可以通过编程方式访问 AlexaTM 20B 模型,以使用 SageMaker Python SDK 中提供的 API 运行推理。
Amazon Alexa AI 的 Alexa Teacher Model (AlexaTM) 计划旨在构建大规模、多任务和多语言的深度学习模型(主要基于 Transformer),目的是无需使用大量来自下游任务的数据即可提高泛化能力。利用大规模预训练,教师模型可以很好地泛化以从稀疏数据中学习新任务,并帮助开发人员提高下游任务的准确性。AlexaTM 20B 是 Alexa AI 规模最大的模型,在常见的自然语言处理 (NLP) 任务和基准(SuperGLUE 和 XNLI)中表现出了具有竞争优势的性能。
Amazon SageMaker JumpStart 是 SageMaker 的机器学习 (ML) 中心,它提供了 350 多种内置算法、预训练模型和预构建的解决方案模板,可以帮助客户快速开始使用 ML。JumpStart 中托管的预训练模型包含来自热门模型中心(例如 TensorFlow、PyTorch、Hugging Face 和 MXNet)的最先进 (SOTA) 的公开可用模型,支持对象检测、文本分类和文本生成等常用的 ML 任务。为了帮助数据科学家和 ML 从业者快速、安全地开始工作,模型将内容存储在 AWS 资源库中,同时附带了与 SageMaker 功能兼容的训练和推理脚本。客户可以使用自己的数据对模型进行微调,也可以按原样部署以进行推理。
在提供 Amazon SageMaker 的所有区域均可使用 AlexaMT 20B。
要了解有关 AlexaTM 模型的更多信息,请访问 Alexa 科学博客;要了解有关如何使用 JumpStart 访问该模型的更多信息,请访问 JumpStart 发布博客。要浏览 SageMaker JumpStart 中提供的所有模型,请访问 SageMaker JumpStart ML 中心。