Hugging Face 如何幫助公司採用開放模型
作者:AWS 編輯團隊 | 2025 年 2 月 21 日 | 思想領導力
概觀
在過去的一年半中,開放原始碼基礎模型 (FM) 以驚人的速度發展,很快就趕上了其對應的封閉模型。工程師現在擁有超過一百萬種免費可用的模型,其中許多模型的表現可與現有的最佳封閉型號相媲美。曾經,開放模型僅限個人使用,但現在正擴展到企業,甚至包括財富 500 強公司。
這個公共模型庫深受社群重視,能夠控制成本、使用透明資料集以及存取專家模型。不過,雖然任何人都可以自由使用開放原始碼模型,但投入生產的挑戰卻阻礙了其潛力的發揮。對於經驗豐富的機器學習 (ML) 工程師來說,該過程涉及圖形處理單元 (GPU)、後端和部署等多個複雜決策,因此至少需要一週的艱苦努力方能完成。
為了讓每個人都能使用 AI,領先的開放原始碼平台 Hugging Face 正努力打破這些障礙。正如 Hugging Face 產品負責人 Jeff Boudier 所說:「我們的目標是讓世界上的每家公司都能夠建置自己的 AI」。該公司最近推出了 Hugging Face 生成式 AI 服務 (也被親切地稱為 HUGS),正在解決部署完整生產開放模型這一耗時且棘手的任務。

開放模型,立即可用
正如 Boudier 所說,Hugging Face 最初的遠大夢想是「讓任何人都可以透過機器學習模型開展有趣的對話」。雖然在 2016 年,這可能太過雄心壯志,但今天,該企業正不斷為個人和公司部署尖端技術,從而逐步實現這一願景。
以前,企業使用封閉模型建立概念性驗證 (POC) 並非因為這是他們的首選,而是因為這是最快且最簡單的途徑。使用開放模型開發 AI 應用程式通常需要大量的反覆試驗,因為工程師需要弄清楚從設定到編譯的所有內容。若要滿足效能和合規要求,他們必須調整程式庫、版本和參數。
藉助 HUGS,組織可以避免使用開放模型開發 AI 應用程式的麻煩。即插即用解決方案正針對那些希望抓住生成式 AI 優勢的人改變遊戲規則。無需設定,這就意味著他們可以簡單地採用一個開放模型並予以執行。由於模型已針對 GPU 或 AI 加速器自動進行最佳化,因此以前需要數週時間方能完成的任務,現在僅需幾分鐘即可。
無需削減預算即可實現高效能
在 Hugging Face 實現 AI 大眾化的過程中,他們與 AWS 的協作已助力他們從早期的新創公司擴展為該領域的領跑者,每個月都有數百萬人在使用 AI 模型。隨著這些模型持續發展且企業越來越多地追求優勢,HUGS 為他們提供了精心挑選的、手動基準測試集合,其中包括最高效能和最新的開放大型語言模型 (LLM)。
Hugging Face 最近與 Amazon Web Services (AWS) 的協作,意味著企業不再需要在成本、效能和部署速度之間做出權衡取捨。現在該解決方案已在 AWS Inferentia2 AI 晶片上可用,因此,開發人員可以進一步最佳化模型的效能,以降低延遲和提高輸送量,同時節省高達 40% 的推論成本。這並非他們讓各種規模的公司能更輕鬆獲取生成式 AI 應用程式的唯一方法。透過就開放原始碼 Optimum Neuron 程式庫開展協作,企業可以獲得 HUGS 的好處,同時維持最低開銷。
提升商業影響力
從建置虛擬助理到幾秒鐘內建立引人入勝的內容,Hugging Face 的模型涵蓋了眾多使用案例。雖然這些模型在學術基準上表現良好,但 Boudier 表示,自訂可以獲得更高的價值,「對於您的使用案例而言,重要的是不同。藉助微調和強化學習,您可以改善開放模型,使它們大大優於封閉模型。」
使用 Amazon SageMaker 上的 AWS Inferentia2,可以自訂 Hugging Face 模型,以提升特定任務的模型品質,並實現大規模生產工作負載。此解決方案還可讓開發人員在使用各種技術改進模型 (包括提示工程、檢索增強生成 (RAG) 等) 時,能更輕鬆地產生即時影響。
Thomson Reuters 等大型企業已在 AWS 上安全有效地擴展開放模型。現在藉助 HUGS 和 AWS Inferentia2,他們即擁有最佳化的硬體,可以自信且快速地建置生成式 AI 應用程式,從而更快獲取價值。透過於 AWS Marketplace 上提供並與 AWS 基礎設施無縫整合,開發人員可以按照自己的條件輕鬆尋找、訂閱和部署開放模型。
隨著 Hugging Face 努力讓開放模型適用於每個人,他們不斷擴展透過 HUGS 提供的 LLM,以使客戶的應用程式始終領先群倫。透過提供更多的開放原始碼選項並簡化使用,公司現在可以自由選擇開放和封閉模型。
找到今天所需的資訊了嗎?
讓我們知道,以便我們改善頁面內容的品質。