亚马逊AWS官方博客

AWS Team

Author: AWS Team

结合 HSDP 及模型并行加速 Llama3 训练

本文分析模型并行库 SMPv2,其结合了PyTorch HSDP 和 Nvidia Transformer Engine,实现了基于张量并行的大型模型训练。SMPv2 在 SageMaker 体系上简化了繁琐的训练初始化配置,并支持与 PyTorch FSDP 的无缝集成,极大降低了开发复杂性。通过配置层次化分片、张量并行度等参数,SMPv2 可以在 Amazon P5 等高性能实例上实现高效的集群扩展性能,同时有效降低显存消耗,支持高效的大型基础模型训练。

借助开源大模型微调打造行业定制化专业翻译

在全球化的商业环境中,高质量的专业翻译对于企业出海和行业交流至关重要。然而,专业领域的翻译往往面临着术语精确性、行业特定风格表达和文化适应性等多重挑战。 本文将探讨如何利用开源大语言模型的微调技术来解决这些挑战。通过针对性的微调训练,我们可以显著提升模型在特定行业翻译任务中的表现。

亚马逊云科技等保基础服务篇(一):亚马逊云科技管理控制台自查和加固指南

本文是《亚马逊云科技等保基础服务篇:亚马逊云科技管理控制台自查和加固指南》系列第一篇文章。我们将探讨在不同亚马逊云科技控制台登录的场景下,客户对亚马逊云科技控制台的不同安全责任差异。只有明确责任,才能对亚马逊云科技控制台进行准确的评估和保护。

完全基于 AWS 的视频内容搜索引擎 VideoSearch

随着企业数字化转型的加速,越来越多的企业上线了新的财务、供应链和销售管理系统。为了确保全球员工能够熟练掌握并高效使用这些新系统,企业通常会组织全面的线上培训。然而,随着培训规模的扩大和员工数量的增加,企业面临着诸多挑战。特别是在全球范围内,培训经理无法做到 24 小时不间断地为员工提供支持,导致问题解决的速度慢,影响了员工的学习效率。在这种背景下,企业迫切需要一种能够高效支持全球员工系统使用问题的解决方案,帮助他们快速定位并解决问题,同时评估培训效果,确保培训的有效性。

基于 Amazon SageMaker 和 LLaMA-Factory 打造一站式无代码模型微调部署平台 Model Hub

在当今人工智能技术迅猛发展的背景下,大型语言模型(Large Language Models, LLMs)已成为推动各类应用创新的重要驱动力。随着模型的复杂性和应用场景的多样化,如何高效地进行模型微调和部署,成为了开发者和研究人员面临的关键挑战。为此,结合 Amazon SageMaker 与 LLaMA-Factory 构建的一站式无代码模型微调部署平台应运而生。