加快 4 倍
部署速度
降低 5 倍
总拥有成本
提高 35%
生产率
概览
自主生成人工智能(AI)企业软件公司Articul8 AI 助力企业解决复杂的变革性业务和技术挑战。该公司将生成式人工智能系统和其他模型以及专有的算法相结合,让客户能在自己的安全边界内进行预测、提供见解并自动执行相关功能。
开发、集成、部署和扩展企业级生成式人工智能解决方案不仅成本高昂,同时也极为耗时。针对这一问题,Articul8 AI 提供了一种即用型生成式人工智能产品,利用 Amazon Web Services(AWS)以及该公司的内部技术,让各行各业的客户能够通过经济实惠的方式,快速将其私有数据转化为有价值的见解,实现可衡量的商业成果。该解决方案让客户能够在安全的环境中利用生成式人工智能的力量,并且与其他备选方案相比,部署时间和总拥有成本(TCO)更低。
机会 | 使用 Amazon SageMaker HyperPod 加速 Articul8 AI 的模型训练和微调
Articul8 AI 于 2024 年 1 月推出了一种全栈纵向优化的生成式人工智能解决方案,专为满足客户的四个核心需求而打造:可扩展性、部署速度、安全性和可持续的成本。该公司提供的生成式人工智能技术包括多模态理解、动态推理和决策、自主行动、可解释性、可审计性以及领域特定/企业特定模型开发等功能。
Articul8 AI 采用独特的自足软件模式,有利于客户快速构建、部署和管理企业级生成式人工智能应用程序,同时将数据保存在自己的虚拟私有云中。
为了构建生成式人工智能平台,Articul8 AI 团队需要快速高效地部署大规模的基础设施资源,以管理用于内部研发和生产部署的工作负载。Articul8 AI 面临的另一个挑战,是要在没有专门基础设施团队的情况下管理 GPU 集群。该公司需要的解决方案,不仅要能够提高计算集群的韧性,具有高可用性和自动化管理功能,同时还要实现技术堆栈的标准化,以便能够在其客户的基础架构中无缝部署。Articul8 AI 之所以选择在 AWS 上构建其解决方案,原因包括 AWS 良好的可靠性、可扩展性以及 AWS 服务团队提供的主动支持。
Articul8 AI 计算和时间强度要求极高的作业之一是预训练和微调各种大语言模型,包括构成 Articul8 AI 生成式人工智能平台支柱的领域特定/企业特定模型。按照 Articul8 AI 的规模,任何形式的性能下降都是不可接受的,因为这可能会对训练模型的成本和时间产生负面影响。因此,该公司需要一种可以缩短模型训练时间的高性能解决方案。该公司尝试了多种解决方案并最终决定采用 Amazon SageMaker HyperPod。该解决方案使用专为大规模分布式训练而构建的基础设施,正常情况下可将基础模型的训练时间缩短多达 40%。
从概念验证到部署,Articul8 AI 与 AWS 携手合作解决相关问题,让该公司能够快速部署其训练工作负载。Articul8 AI 应用研究主管 Felipe Viana 表示:“刚开始的时候,我们想看看这个解决方案将如何发展并适应我们的需求,结果我们对 AWS 提供的支持无比满意。及时获得所需的支持,使我们增强了对 Amazon SageMaker HyperPod 服务的信心,并加快了我们的人工智能研究工作。”
我们几乎所有的开发都在 AWS 上进行,并且还有更多的机会来扩大 AWS 服务的使用范围。”
Arun Subramaniyan
Articul8 AI 创始人兼首席执行官
解决方案 | 使客户部署的速度加快四倍
Articul8 AI 用超过 18 个月时间在隐身模式下构建了垂直集成的自主生成式人工智能平台,并于 2024 年 1 月公开发布,主要有两种产品选项,并提供全面的企业支持。第一个选项是针对知识发现等特定应用场景预先配置的产品 Express Bundle,此类场景不需要为客户提供训练或微调功能。第二个选项是可定制的 Premium Bundle,支持对领域特定/企业特定模型进行持续的预训练或微调,并提供生产级企业部署所需的各种其他功能和人工智能包。这两个选项的解决方案堆栈都建立在 AWS 云端,并使用 Amazon SageMaker HyperPod 进行模型训练和微调。
通过使用 Amazon SageMaker HyperPod,Articul8 AI 不仅能够提高性能,同时还可快速将其解决方案推向市场。由于使用了 Amazon SageMaker HyperPod,该公司无需手动管理其高性能计算集群,集群使用率达到了近 100%。此外,该公司的生产率也提高了多达 35%。Amazon SageMaker HyperPod 还会监控集群运行状况并自动替换故障节点。从而缩短了 Articul8 AI 的训练时间,使研究人员能够顺场地进行部署,提高了整体生产力率。Articul8 AI 创始人兼首席执行官 Arun Subramaniyan 说:“由于不需要自行管理集群,由此节省的时间十分宝贵。我们正在提前投资 Amazon SageMaker HyperPod 等技术,以帮助我们的团队高效运作并快速扩大运营规模。”
Articul8 AI 还将 Amazon SageMaker HyperPod 与其他 AWS 服务集成,包括 Amazon Managed Grafana,后者为运营指标、日志和跟踪提供可扩展且安全的数据可视化功能。该公司还使用 Amazon SageMaker HyperPod 生命周期脚本来自定义其集群环境并安装所需的库和软件包,包括开源导出工具。借助这些额外的功能,Articul8 AI 在单个控制面板中实现了对其 GPU 资源的准实时可观测性。
这种预构建的即用型解决方案有助于 Articul8 AI 的客户加快其生成式人工智能之旅,为其提供了丰富的人工智能模型和多种其他功能,并且都在客户的安全环境中部署并自主运行。与其他生成式人工智能解决方案相比,Articul8 AI 解决方案的部署速度提升了多达四倍,对于某些应用场景,部署时间可从数月缩短至几周。Articul8 AI 在 AWS 上进行了各种优化并采用差异化的商业模式,还有助于客户降低总拥有成本,在生产环境中大规模部署生成式人工智能应用程序时可降低高达五分之四。
成果 | 为 Articul8 AI 的最终客户增加价值
在金融服务、网络安全、半导体、政府、航空航天和电信等行业,率先采用 Articul8 AI 解决方案的公司已经获得了显著的时间和成本节省。Articul8 AI 致力于帮助客户利用基于生成式人工智能的技术,尽可能发掘其业务潜力。未来,Articul8 AI 将继续扩大对 Amazon SageMaker HyperPod 的使用,进一步提高预训练和微调作业的运行速度和效率。
Subramaniyan 说:“Amazon SageMaker HyperPod 仅仅是 Articul8 AI 运用 AWS 服务的开端。我们几乎所有的开发都在 AWS 上进行,并且还有更多的机会来扩大 AWS 服务的使用范围。我们期待与 AWS 和我们的客户一起,携手共创生成式人工智能的未来。”
“Amazon SageMaker HyperPod 为我们提供了极大的帮助,让我们能够更高效地管理和运营计算资源,同时尽可能地减少停机时间。我们很早就开始采用基于 Slurm 的 HyperPod 服务,并受益于它的易用性和韧性等特点,我们的生产率提高了多达 35%,并快速扩展了我们的生成式人工智能部署”,Subramaniyan 说。“作为一家以 Kubernetes 为核心的公司,我们非常高兴 Amazon EKS 现在开始支持 SageMaker HyperPod。这对我们来说是一项颠覆性的技术,因为它与我们现有的训练流程无缝集成,使我们更容易管理和操作我们的大规模 Kubernetes 集群。此外,这也对我们的最终客户也非常有益,因为我们现在能够将此功能打包并作为我们生成式人工智能平台中一个产品,进一步简化客户运行自己的训练和微调工作负载的方式。Amazon SageMaker HyperPod 仅仅是 Articul8 AI 运用 AWS 服务的开端。我们几乎所有的开发都在 AWS 上进行,并且还有更多的机会来扩大 AWS 服务的使用范围。我们期待与 AWS 和我们的客户一起,携手共创生成式人工智能的未来。”
关于 Articul8
Articul8 AI 是一家企业软件公司,提供垂直优化的自主全栈生成式人工智能软件平台,使企业能够在自己的安全边界内构建、部署和管理生成式人工智能应用程序。
更多软件和互联网客户案例
行动起来
无论行业无论规模,每天都有各种机构在使用 AWS 实现自身业务转型、实现企业愿景。欢迎您联系我们的专家,立即踏上您的 AWS 之旅。