概觀
Sprinklr 提供統一的客戶體驗管理 (Unified-CXM) 平台,結合了行銷、廣告、研究、客戶服務、銷售和社交媒體參與的不同應用程序。作為一家雲端優先公司,Sprinklr 一直設法提高效率和節省更多成本。為了協助實現目標,該公司使用 Amazon Web 服務 (AWS),特別是 Amazon 彈性運算雲 (Amazon EC2),該公司在雲中提供安全且可調整大小的運算容量。
2021 年,Sprinklr 有機會嘗試 Amazon EC2 Inf1 執行個體,這些執行個體採用 AWS Inferentia 提供支援,這是一種針對 ML 推論應用程式,從頭開始建構的高效能機器學習 (ML) 推論晶片。透過將自己的 Unified-CXM 平台上的即時工作負載,從以 GPU 為基礎的 Amazon EC2 執行個體遷移到 AWS Inferentia,Sprinklr 節省了大量的成本,並將這些工作負載的延遲降低了 30% 以上。此外,透過降低延遲,他們還提高了產品和服務的效能。
關於 Sprinklr
Sprinklr 的 Unified-CXM 平台藉助先進的人工智慧,可協助企業能夠隨時透過任何現代化管道為每個客戶提供個人化體驗。Sprinklr 的總部位於紐約市,與 1,000 多家全球企業和 50% 以上的財富 100 強企業合作。
利用 ML 建立更好的客戶體驗
Sprinklr 成立於 2009 年,是一家美國軟體公司,員工遍佈世界各地。他們願意率先嘗試新的 AWS 服務,他們的使命是協助全球的組織提高客戶滿意度。他們在四個強大的產品套件中提供超過 31 種不同軟體產品,並開發了先進的專有人工智慧引擎,以供企業分析公開的資料並透過 30 個數位管道和社交管道與客戶互動。藉助 Sprinklr 的產品和服務,企業可以在內部進行跨團隊協作並與外部的數位管道進行協作,以建立更好的客戶體驗。
Sprinklr 一直在設法改善客戶體驗,同時降低運算成本並最佳化效率。Sprinklr 基礎設施和 DevOps 副總裁 Jamal Mazhar 表示:「我們一直以來的目標都是要利用最新的技術,以節省更多成本。」Sprinklr 希望在降低 ML 推論成本的同時減少延遲,並希望利用 AWS 的創新來應對這些挑戰。Sprinklr 人工智慧產品工程資深總監 Yogin Patel 表示:「在我們了解了 AWS Inferentia 之後,我們很自然地將其視為我們的成本計畫的一個驅動因素。」為了降低運算成本並提高客戶滿意度,Sprinklr 於 2021 年 7 月開始測試 Amazon EC2 Inf1 執行個體。
不斷努力提高效能和節省更多成本
Sprinklr 的 Unified-CXM 平台利用 ML 演算法處理來自多種不同管道的非結構化資料,以便為客戶提供洞見。例如,其自然語言處理和電腦視覺 ML 模型可分析各種不同的資料格式,包括社交媒體張貼、部落格張貼、影片內容和其他超過 30 個管道的公共領域可用內容。Sprinklr 能夠從這些內容中提取客戶的情緒和意圖,從而為客戶提供對於產品的洞見。目前,該公司每天在其 500 多個模型上進行約 100 億次預測。Sprinklr 將其工作負載分為兩個群組:延遲最佳化型和輸送量最佳化型。延遲是指一個推論到達其目的地所需的時間,輸送量是指在特定時間段內處理的封包數量。Patel 表示:「即使只是將一個模型的延遲降低 20%,長期來看也能節省非常可觀的成本。」
AWS Inferentia 特別內含大量片上記憶體,用以快取大型模型,無需儲存於晶片外。這對降低推論延遲有明顯效果,因為 AWS Inferentia 的處理核心 (名為 NeuronCore) 能高速存取存放在晶片上記憶體的模型,不受晶片外記憶體的頻寬限制。NeuronCore 還能夠以低得多的成本在雲端提供高效能推論,讓開發人員可以輕鬆將 ML 整合到他們的業務應用程式中。
Sprinklr 開始將模型遷移到 Amazon EC2 Inf1 執行個體並執行基準測試時,他們發現延遲最佳化型工作負載的延遲降低了 30% 以上。Patel 表示:「我們始終希望測試新的 AWS 服務、試驗工作負載,以及對新的執行個體進行基準測試。」發現 AWS Inferentia 能夠在測試中顯著降低延遲之後,Sprinklr 決定將自己的所有延遲最佳化型工作負載遷移到 Amazon EC2 Inf1 執行個體。Mazhar 表示:「目標始終是降低延遲,這意味著更好的客戶體驗。」「藉助 Amazon EC2 Inf1 執行個體,我們能夠實現這一目標。」
在將大約 20 個模型遷移到 Amazon EC2 Inf1 執行個體之後,Sprinklr 開始遷移電腦視覺和文字模型,以提高效率和節省更多成本。在使用 Amazon EC2 Inf1 執行個體的情況下,該團隊現在可以在不到 2 週的時間內部署一個模型。他們發現向 AWS Inferentia 遷移的過程非常簡單,並且能夠取得充足的資源和支援。Mazhar 表示:「我們總是能夠迅速聯絡到正確的團隊。」「AWS 提供的支援協助我們提高了客戶滿意度和員工生產力。」
透過創新提高效率
隨著繼續將模型遷移到 AWS Inferentia,Sprinklr 將新增更多的語音相關模型,包括自動語音辨識和意圖辨識模型,以協助企業進一步與客戶互動。Sprinklr 預計,透過將這些模型部署到 AWS Inferentia 上,能夠以低得多的成本為客戶提供所需的效能和低延遲。
目標始終是降低延遲,這意味著更好的客戶體驗。使用亞馬遜 EC2 Inf1 執行個體,我們能夠實現這一目標。
Jamal Mazhar
Sprinklr 基礎設施與開發運營副總裁開始使用
找到今天所需的資訊了嗎?
讓我們知道,以便我們改善頁面內容的品質