Sprinklr reduziert die Kosten für Machine Learning in AWS Inferentia

2021

Sprinklr bietet eine einheitliche Plattform für Customer Experience Management (Unified-CXM), die verschiedene Anwendungen für Marketing, Werbung, Forschung, Kundenbetreuung, Vertrieb und Social-Media-Engagement kombiniert. Als Cloud-First-Unternehmen ist Sprinklr stets bestrebt, die Effizienz zu verbessern und seine Kosteneinsparungen zu optimieren. Um seine Ziele zu erreichen, nutzt das Unternehmen Amazon Web Services (AWS) – insbesondere Amazon Elastic Compute Cloud (Amazon EC2), das sichere, anpassbare Datenverarbeitungskapazität in der Cloud bereitstellt.

Im Jahr 2021 hatte Sprinklr die Gelegenheit, Amazon-EC2-Inf1-Instances auszuprobieren, die von AWS Inferentia unterstützt werden, einem leistungsstarken Inferenzchip für Machine Learning (ML), der von Grund auf neu entwickelt und für ML-Inferenzanwendungen optimiert wurde. Durch die Migration seiner Echtzeit-Workloads zu seiner Unified-CXM-Plattform von GPU-basierten Amazon-EC2-Instances in AWS Inferentia konnte Sprinklr erhebliche Kosteneinsparungen erzielen und die Latenz bei diesen Workloads um mehr als 30 Prozent reduzieren. Darüber hinaus hat das Unternehmen durch die Reduzierung der Latenz auch die Leistung seiner Produkte und Services für seine Kunden verbessert.

1179697528
kr_quotemark

„Das Ziel ist immer eine geringere Latenz, denn das bedeutet ein besseres Kundenerlebnis. Mit Amazon-EC2-Inf1-Instances können wir das erreichen.“

Jamal Mazhar
Vice President of Infrastructure and DevOps, Sprinklr

Mit ML ein besseres Kundenerlebnis schaffen

Sprinklr wurde 2009 gegründet und ist ein amerikanisches Softwareunternehmen mit Mitarbeitern auf der ganzen Welt. Das Unternehmen setzt neue AWS-Services frühzeitig ein und hat es sich zur Aufgabe gemacht, Unternehmen auf der ganzen Welt dabei zu unterstützen, ihre Kunden glücklicher zu machen. Es bietet über 31 verschiedene Softwareprodukte in 4 robusten Produktsuiten und hat eine fortschrittliche proprietäre Engine für künstliche Intelligenz entwickelt, mit der Unternehmen öffentlich verfügbare Daten analysieren und über 30 digitale und soziale Kanäle mit Kunden in Kontakt treten können. Mit Sprinklr können Unternehmen intern teamübergreifend und extern über digitale Kanäle zusammenarbeiten, um ein besseres Kundenerlebnis zu schaffen.

Sprinklr ist stets bemüht, das Kundenerlebnis zu verbessern und gleichzeitig die Datenverarbeitungskosten zu senken und die Effizienz zu optimieren. „Unser Ziel ist es, immer größere Kosteneinsparungen zu erzielen, indem wir die neueste Technologie nutzen“, sagt Jamal Mazhar, Vice President of Infrastructure and DevOps bei Sprinklr. Sprinklr wollte die Latenz reduzieren und gleichzeitig seine ML-Inferenzkosten senken, und setzte auf Innovationen von AWS, um diese Herausforderungen anzugehen. „Als wir von AWS Inferentia erfuhren, war es für uns ein natürlicher Prozess, dies bei unseren Kosteninitiativen zu berücksichtigen“, sagt Yogin Patel, Senior Director of Product Engineering, Artificial Intelligence bei Sprinklr. Mit dem Ziel, die Datenverarbeitungskosten zu senken und die Kundenzufriedenheit zu verbessern, begann Sprinklr im Juli 2021 mit dem Testen von Amazon-EC2-Inf1-Instances.

Kontinuierlich Leistung verbessern und Kosten senken

Die Unified-CXM-Plattform von Sprinklr verwendet ML-Algorithmen für unstrukturierte Daten, die aus vielen verschiedenen Kanälen stammen, und liefert den Kunden des Unternehmens die passenden Erkenntnisse. Die ML-Modelle des Unternehmens für natürliche Sprachverarbeitung und Computer Vision analysieren beispielsweise verschiedene Datenformate, die aus Social-Media-Posts, Blog-Beiträgen, Videoinhalten und anderen Inhalten stammen, die in öffentlichen Domains auf mehr als 30 Kanälen verfügbar sind. Sprinklr ist in der Lage, aus diesen Inhalten die Stimmung und Absicht der Käufer abzuleiten, um seinen Kunden Produkterkenntnisse zu bieten. Derzeit führt das Unternehmen in seinen mehr als 500 Modellen täglich rund 10 Milliarden Prognosen durch. Sprinklr unterteilt seine Workloads in zwei Gruppen: latenzoptimiert und durchsatzoptimiert. Die Latenz gibt an, wie lange es dauert, bis eine Inferenz ihr Ziel erreicht, und der Durchsatz bezieht sich auf die Anzahl der Pakete, die innerhalb eines bestimmten Zeitraums verarbeitet werden. „Wenn die Latenz auch nur bei einem Modell um 20 Prozent sinkt, führt das zu sehr großen Kosteneinsparungen“, sagt Patel.

AWS Inferentia verfügt über eine große Menge an On-Chip-Speicher, der für das Caching großer Modelle verwendet werden kann, anstatt diese Off-Chip zu speichern. Dies kann erhebliche Auswirkungen auf die Reduzierung der Inferenzlatenz haben, da die Datenverarbeitungskerne von AWS Inferentia, sogenannte NeuronCores, schnellen Zugriff auf Modelle haben, die im On-Chip-Speicher gespeichert und nicht durch die externe Speicherbandbreite begrenzt sind. NeuronCores bieten außerdem leistungsstarke Inferenz in der Cloud zu deutlich niedrigeren Kosten und erleichtern es Entwicklern, ML in ihre Geschäftsanwendungen zu integrieren.

Als Sprinklr begann, Modelle auf Amazon-EC2-Inf1-Instances zu migrieren und Benchmark-Tests durchzuführen, verzeichnete das Unternehmen eine um mehr als 30 Prozent geringere Latenz bei den latenzoptimierten Workloads. „Wir sind immer daran interessiert, neue AWS-Services zu testen, mit Workloads zu experimentieren und neue Instances Benchmark-Tests zu unterziehen“, sagt Patel. Angesichts der deutlich reduzierten Latenz, die AWS Inferentia in Tests erzielen konnte, entschied sich Sprinklr, alle seine latenzoptimierten Workloads zu Amazon-EC2-Inf1-Instances zu migrieren. „Das Ziel ist immer eine geringere Latenz, was ein besseres Kundenerlebnis bedeutet“, sagt Mazhar. „Mit Amazon-EC2-Inf1-Instances können wir das erreichen.“

Nach der Migration von etwa 20 Modellen zu Amazon-EC2-Inf1-Instances begann Sprinklr mit der Migration seiner Computer-Vision- und Textmodelle, um die Effizienz zu verbessern und Kosten zu sparen. Das Team ist nun in der Lage, ein Modell mit Amazon-EC2-Inf1-Instances in weniger als 2 Wochen bereitzustellen. Bei der Migration zu AWS Inferentia erwies sich der Prozess als einfach, da zahlreiche Ressourcen und der nötige Support zur Verfügung standen. „Wir konnten schnell mit den richtigen Teams Kontakt aufnehmen“, sagt Mazhar. „Der Support von AWS hilft uns, unsere Kundenzufriedenheit und die Produktivität unserer Mitarbeiter zu steigern.“

Innovationen zur Verbesserung der Effizienz

Sprinklr setzt die Migration von Modellen zu AWS Inferentia fort und wird weitere sprachbezogene Modelle hinzufügen, einschließlich automatischer Spracherkennung und Absichtserkennung, um Unternehmen bei einer besseren Interaktion mit ihren Kunden zu unterstützen. Sprinklr geht davon aus, dass die Bereitstellung dieser Modelle in AWS Inferentia seinen Kunden die benötigte Leistung und geringe Latenz zu deutlich niedrigeren Kosten bieten wird.


Über Sprinklr

Mit fortschrittlicher künstlicher Intelligenz hilft die Unified-CXM-Plattform von Sprinklr Unternehmen dabei, jedem Kunden menschliche Erlebnisse zu bieten, jederzeit und über jeden modernen Kanal. Sprinklr hat seinen Hauptsitz in New York City und arbeitet mit über 1 000 globalen Unternehmen und über 50 Prozent der Fortune-100-Unternehmen zusammen.

Vorteile von AWS

  • Reduzierte Latenz bei migrierten Modellen um über 30 %
  • Geringere Datenverarbeitungskosten bei migrierten Modellen
  • Bietet mithilfe künstlicher Intelligenz Erkenntnisse aus unstrukturierten Daten
  • Verbessertes Kundenerlebnis durch künstliche Intelligenz und ML
  • Kann ein Modell in weniger als 2 Wochen bereitstellen
  • Unterstützte Teamzufriedenheit und Produktivität

Genutzte AWS-Services

Amazon EC2 Inf1

Amazon-EC2-Inf1-Instances bieten leistungsstarke ML-Inferenz zu den niedrigsten Kosten in der Cloud. Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für Machine Learning zu unterstützen. 

Mehr erfahren »

AWS Inferentia

AWS Inferentia ist der erste kundenspezifische Halbleiter von Amazon, der zur Beschleunigung von Deep-Learning-Workloads entwickelt wurde. Die Zielsetzung bestand darin, leistungsstarke Inferenz in der Cloud zu ermöglichen, die Gesamtkosten der Inferenz zu senken und es Entwicklern zu erleichtern, Machine Learning in ihre Geschäftsanwendungen zu integrieren.

Mehr erfahren »


Erste Schritte

Unternehmen jeder Größe und aus jeder Branche transformieren ihr Geschäft mit AWS. Kontaktieren Sie unsere Experten und beginnen Sie noch heute Ihren Weg in die AWS Cloud.