宣布推出 Amazon SageMaker HyperPod 配方

发布于: 2024年12月4日

Amazon SageMaker HyperPod 配方可以帮助您在几分钟内,以最先进的性能开始训练和微调公开发布的基础模型(FM)。SageMaker HyperPod 能够帮助客户在成百上千个 AI 加速器上扩展生成式人工智能模型的开发,并且具备内置的弹性和性能优化功能,可以将模型训练时间缩短多达 40%。但是,随着基础模型的大小持续增加到数千亿个参数,自定义这些模型的过程可能需要为时数周的大规模实验和调试。此外,为了实现更高的性价比而进行训练优化对于客户而言通常不可行,因为这往往需要他们具备深厚的机器学习专业知识,因此可能会导致产品上市时间的进一步延迟。 

借助 SageMaker HyperPod 配方,不同技术水平的所有客户都可以受益于最先进的性能,同时快速开始训练和微调各种主流公开基础模型,包括 Llama 3.1 405B、Mixtral 8x22B 和 Mistral 7B。SageMaker HyperPod 配方中包含经过 AWS 测试的训练堆栈,避免了花费几周时间反复试验不同模型配置的繁琐工作。 您还可以通过单行配方更改在基于 GPU 的实例和基于 AWS Trainium 的实例之间快速切换,并启用自动模型检查点以提高训练弹性。最后,您可以在自己选择的 SageMaker AI 培训服务上将工作负载投入生产环境中运行。 

SageMaker HyperPod 配方现已在支持 SageMaker HyperPod 和 SageMaker 训练作业的所有 AWS 区域推出。要了解更多信息并开始使用,请访问 SageMaker HyperPod 页面博客