Hugging Face 如何帮助公司采用开放模式
作者:AWS 编辑团队 | 2025 年 2 月 21 日 | 思想领导力
概览
在过去一年半的时间里,开源基础模型(FM)发展迅猛,迅速赶上了闭源模型。如今,工程师们手头有超过一百万个免费可用的模型,其中许多模型的性能与市面上最优秀的闭源模型不相上下。开源模型的应用曾经仅限于个人,如今已扩展到企业,包括一些财富 500 强公司。
这个模型公共库备受社区推崇,它能够控制成本、使用透明数据集,并访问专业模型。但是,尽管任何人都可以免费使用开源模型,但将其投入生产所面临的挑战限制了其潜力。对于一位经验丰富的机器学习(ML)工程师来说,这个过程至少需要一周的辛苦工作,涉及围绕图形处理单元(GPU)、后端和部署的多个复杂决策。
为了让每个人都能使用人工智能,领先的开源平台 Hugging Face 正在打破这些障碍。正如 Hugging Face 产品负责人 Jeff Boudier 所说:“我们的目标是让世界上的每一家公司都能构建自己的人工智能。”该公司最近推出了 Hugging Face 生成式人工智能服务(也被亲切地称为 HUGS),力求解决部署完整生产开源模型这一耗时且棘手的任务。

开箱即用的开源模型
正如 Boudier 所说,Hugging Face 创立之初的宏伟愿景是“让任何人都能与机器学习模型进行有趣的对话”。尽管这在 2016 年或许是个大胆的抱负,但如今,该公司正通过让个人和企业都能轻松部署前沿技术逐步实现这一愿景。
此前,企业使用闭源模型构建概念验证(POC),并非因为这是他们的首选,而是因为这是最快捷、最简便的途径。使用开源模型开发人工智能应用程序通常需要反复进行尝试,因为工程师需要弄清楚从配置到编译的所有内容。为满足性能和合规要求,他们必须调整库、版本和参数。
有了 HUGS,组织无需再为使用开源模型开发人工智能应用程序而头疼。对于那些希望利用生成式人工智能优势的企业来说,这种即插即用的解决方案正在改变游戏规则。无需配置,意味着他们可以直接使用开源模型。过去需要花费数周的工作,现在只需要几分钟,因为模型会针对 GPU 或 AI 加速器自动优化。
无需削减预算即可实现高性能
在努力实现人工智能大众化的历程中,Hugging Face 与 AWS 的合作帮助他们从一家早期初创企业发展成为该领域的佼佼者,每月有数百万人使用其人工智能模型。随着这些模型不断取得进展,企业也越来越追求其带来的益处,HUGS 为他们提供了精选的、经过人工基准测试的高性能最新开源大型语言模型(LLM)。
Hugging Face 与 Amazon Web Services(AWS)的最新合作意味着企业无需再在成本、性能和部署速度之间取舍。现在,该解决方案已在 AWS Inferentia2 AI 芯片 上可用,开发人员可以进一步优化模型性能,以降低延迟并提高吞吐量,同时还能节省高达 40% 的推理成本。而且,这并不是他们让各种规模的公司能够更轻松地使用生成式人工智能应用程序的唯一方式。通过合作开发开源 Optimum Neuron 库,企业既能享受 HUGS 带来的优势,又能最大程度地降低管理费用。
增强商业影响力
从构建虚拟助手到在几秒内创作引人入胜的内容,Hugging Face 的模型涵盖丰富的用例。尽管这些模型在学术基准测试中表现出色,但 Boudier 表示,通过定制可以获得更大的价值,“对您的用例来说,重要的因素是不同的。通过微调与强化学习,您可以改进开源模型,使其优于闭源模型。”
通过在 Amazon SageMaker 上使用 AWS Inferentia2,可以定制 Hugging Face 模型,以提升其处理特定任务的质量,并支持大规模生产工作负载。该解决方案还使开发人员在使用一系列技术 [包括提示工程、检索增强生成(RAG)等] 改进模型时,更容易立即获得成效。
像 Thomson Reuters 这样的大型企业已经在 AWS 上安全有效地扩展开源模型。现在借助 HUGS 和 AWS Inferentia2,他们拥有经过优化的硬件,能够自信且快速地构建生成式人工智能应用程序,进而更快获得价值。在 AWS Marketplace 上即可获取,并且可与 AWS 基础设施无缝集成,开发人员能够轻松地根据自身需求查找、订阅并部署开源模型。
Hugging Face 在朝着“让开源模型适用于所有人”的目标迈进的过程中,正通过 HUGS 扩展可用的大型语言模型(LLM),以使客户应用程序始终处于前沿。通过提供更多开源选项并简化使用方式,企业现在可以自由选择开源和闭源模型。
找到今天要查找的内容了吗?
请提供您的意见,以便帮助我们提高网站内容的质量。