Kundenberichte / Software und Internet / USA

2023
Forethought-Logo

Optimierung von Kosten und Leistung für generative KI mit Amazon SageMaker und Forethought Technologies

Erfahren Sie, wie Forethought Technologies, ein Anbieter von generativen KI-Lösungen für den Kundenservice, mit Amazon SageMaker die Kosten um bis zu 80 Prozent senken konnte.

80 % Kostenreduktion

mit Amazon SageMaker Serverless Inference

66 % Kostenreduktion

mit Multimodell-Endpunkten von Amazon SageMaker

Verbesserte Ressourceneffizienz

und Verfügbarkeit

Verbesserte Reaktionszeiten der Kunden

und Hyperpersonalisierung

Übersicht

Forethought Technologies (Forethought), ein Anbieter von Kundenservice-Software, wollte die Machine-Learning-Kosten senken und die ML-Verfügbarkeit steigern, um neue Kunden zu gewinnen. Das Unternehmen nutzte bereits Amazon Web Services (AWS) für ML-Modelltraining und Inferenz und wollte mit seinem kleinen Cloud-Infrastrukturteam immer effizienter und skalierbarer werden.

Um seine Ziele zu erreichen, migrierte Forethought die Inferenz und das Hosting von ML-Modellen zu Amazon SageMaker, das zum Erstellen, Trainieren und Bereitstellen von ML-Modellen für praktisch jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows verwendet wird. Durch den Einsatz von Amazon SageMaker konnte Forethought die Verfügbarkeit und die Reaktionszeiten für Kunden verbessern und seine ML-Kosten um bis zu 80 Prozent senken.

Two Businesspeople Examining Graph On Computer

Chance | Forethought nutzt Amazon SageMaker, um mehr Kunden zu geringeren Kosten zu unterstützen

Die Suite der Kundenservice-Lösungen von Forethought basiert auf generativer KI, einer Art von KI, mit der neue Inhalte und Ideen entstehen können, darunter Konversationen, Geschichten, Bilder, Videos und Musik. Im Mittelpunkt des Produkts von Forethought steht die SupportGPT-Technologie, die große Sprachmodelle und Informationsabrufsysteme verwendet, um jedes Jahr über 30 Millionen Kundeninteraktionen zu ermöglichen. Durch Automatisierung entlastet das Unternehmen die Kundenserviceteams, indem es die Nutzer mit konversationeller KI unterstützt. Viele Kunden von Forethought nutzen das Produkt in Zeiten mit hohem Arbeitsaufkommen, wie z. B. in der Urlaubs- oder Steuersaison, um mehr Kundenanfragen mit weniger Kundendienstmitarbeitern zu bearbeiten. Forethought bietet hyperpersonalisierte ML-Modelle für seine Kunden an und trainiert oft mehrere Modelle pro Kunde, um individuelle Anwendungsfälle zu erfüllen.

Forethought wurde 2017 in den USA gegründet und nutzte zunächst mehrere Cloud-Anbieter, um seine Produkte zu hosten. Amazon SageMaker wurde für das Training von ML-Modellen verwendet. In den ersten zwei Jahren entwickelte das Unternehmen eine Lösung für seine ML-Inferenz mithilfe von Amazon Elastic Kubernetes Service (Amazon EKS), einem verwalteten Kubernetes-Service zur Ausführung von Kubernetes in der AWS Cloud und On-Premises. Da das Unternehmen weiter wuchs und neue Kunden gewann, wollte es die Verfügbarkeit seiner Lösung verbessern und die Kosten senken.

Um seinen Anforderungen an Skalierbarkeit, Verfügbarkeit und Kostenoptimierung gerecht zu werden, entschied sich Forethought dafür, seine ML-Inferenz zu Amazon SageMaker zu migrieren. Das Unternehmen begann, zusätzliche Features von Amazon SageMaker zu nutzen, um seine Produkte zu verbessern. In diesem Prozess hat Forethought seine Pipeline so gestaltet, dass sie von den Latenz- und Verfügbarkeitsverbesserungen profitiert, die mit Amazon SageMaker erreicht werden können. "Das Amazon-SageMaker-Team stellt für alles, was wir brauchen, den Kontakt zu den richtigen Leuten her, damit wir AWS erfolgreich nutzen können", sagt Jad Chamoun, Director of Core Engineering bei Forethought.

kr_quotemark

Durch die Migration zu Amazon-SageMaker-Multimodell-Endpunkten konnten wir unsere Kosten um bis zu 66 % senken und gleichzeitig eine bessere Latenz und bessere Reaktionszeiten für die Kunden bieten."

Jad Chamoun
Director of Core Engineering, Forethought Technologies

Lösung | Kostensenkung und Verbesserung der Verfügbarkeit mithilfe von Amazon SageMaker Inference

Forethought migrierte seine ML-Inferenz von Amazon EKS zu Amazon-SageMaker-Model-Deployment-Multimodell-Endpunkten mit mehreren Modellen, einer skalierbaren und kostengünstigen Lösung für die Bereitstellung einer großen Anzahl von Modellen. Ein Beispiel für die Anwendung dieses Features in der Lösung von Forethought ist die automatische Vervollständigung der nächsten Wörter in einem Satz, wenn ein Benutzer tippt. Das Unternehmen verwendet Amazon-SageMaker-Endpunkte mit mehreren Modellen, um mehrere ML-Modelle auf einem einzigen Inferenzendpunkt auszuführen. Dies verbessert die Skalierbarkeit und Effizienz von Hardwareressourcen wie GPUs. Das Unternehmen reduzierte außerdem die Kosten durch den Einsatz von Amazon SageMaker-Multimodell-Endpunkten. "Mit Amazon SageMaker können wir unsere Kunden zu niedrigeren Kosten pro Kunde unterstützen", sagt Chamoun. "Durch die Migration zu Amazon SageMaker Multimodell-Endpunkten konnten wir unsere Kosten um bis zu 66 Prozent senken und gleichzeitig bessere Latenz- und Reaktionszeiten für unsere Kunden bieten."

Forethought verwendet auch Amazon SageMaker Serverless Inference, eine speziell entwickelte Inferenzoption, um ML-Modelle bereitzustellen und zu skalieren, ohne die zugrunde liegende Infrastruktur zu konfigurieren oder zu verwalten. Bei der Verwendung von Amazon SageMaker Serverless Inference durch Forethought geht es um kleine Modelle und Klassifikatoren, die auf jeden Kundenanwendungsfall abgestimmt sind, wie z. B. die automatische Bestimmung der Priorität eines Support-Tickets. Durch die Migration einiger seiner Klassifikatoren zu Amazon SageMaker Serverless Inference sparte Forethought rund 80 Prozent der damit verbundenen Cloud-Kosten ein.

Das Cloud-Infrastrukturteam von Forethought besteht aus drei Personen. Das Ausführen und Verwalten aller ML-Modelle und Kubernetes-Cluster war zu viel Aufwand für das kleine Team. Mit Amazon SageMaker kann das Unternehmen mit den vorhandenen Mitarbeitern so viel wie nötig skalieren. „Wir führen mehrere Instances auf Amazon-SageMaker-Multimodell-Endpunkten aus“, sagt Chamoun. „Wir können Ressourcen effizienter teilen und bieten gleichzeitig eine bessere Verfügbarkeit als in der Vergangenheit.“

Durch den Einsatz von Amazon SageMaker muss sich das Forethought-Team keine Gedanken mehr über Speicherausnahmen oder Verfügbarkeit machen - Probleme, mit denen die drei Ingenieure sonst viel Zeit hätten verbringen müssen. Da das Unternehmen die automatisierten Pipelines für Sprachmodelle mithilfe von Amazon SageMaker eingerichtet hat, können die Teams von Forethought und seine Kunden die Daten, die sie trainieren möchten, direkt eingeben und übermitteln. "Wir mussten uns nicht um die Schulung, den Einsatz und die Skalierung kümmern, was uns die Möglichkeit gab, an anderen Dingen zu arbeiten, die für das Unternehmen wichtiger sind", sagt Chamoun. Forethought führt jetzt über 80 Prozent seiner GPU-Inferenz auf Amazon SageMaker zwischen Amazon SageMaker-Multimodell-Endpunkten und Amazon SageMaker Serverless Inference aus.

Ergebnis | Fortführung der Hyperpersonalisierung mit AWS

Forethought wächst weiter und bietet hyperpersonalisierte ML-Modelle für immer mehr Kunden an. Das Unternehmen arbeitet weiterhin mit AWS zusammen, um seine Infrastruktur zu verbessern und sein Produkt zu erneuern. Forethought ist Teil des AWS Global Startup Program, eines Programms, das nur auf Einladung läuft und Startups im mittleren bis späten Stadium unterstützt, die eine institutionelle Finanzierung erhalten haben, die Produkt-Markt-Fit erreicht haben und bereit sind, zu skalieren. Das Unternehmen wirbt für sein Produkt, das jetzt in AWS Marketplace erhältlich ist.

"Ob unsere Suchdienste, unsere Inferenz für spezifische ML-Modelle oder das Chatten mit unseren Kundensupport-Bots, alles, was wir haben, nutzt Amazon SageMaker", sagt Chamoun.

Über Forethought Technologies

Forethought Technologies ist ein Startup in den USA, das eine generative KI-Suite für den Kundenservice anbietet, die Machine Learning nutzt, um den Lebenszyklus des Kundensupports zu verändern. Das Unternehmen unterstützt über 30 Millionen Kundeninteraktionen pro Jahr.

Verwendete AWS-Services

Amazon SageMaker

Entwickeln, trainieren und implementieren Sie Machine Learning (ML)-Modelle für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows

Weitere Informationen »

AWS Global Startup Program

Das AWS Global Startup Program ist ein Markteinführungsprogramm, das nur auf Einladung zugänglich. Es unterstützt Startups im mittleren bis fortgeschrittenen Stadium, die eine institutionelle Finanzierung erhalten haben, die die Marktfähigkeit ihres Produkts erreicht haben und die bereit sind, zu skalieren.

Weitere Informationen »

Weitere Kundengeschichten zur generativen KI

Showing results: 13-16
Total results: 241

keine Elemente gefunden 

  • Taiwan

    Noodoe Boosts EV Charging Station Revenues by 10–25% with Generative AI Advisor on Amazon Bedrock

    Learn how Noodoe uses generative AI on Amazon Bedrock to help EV charging station operators optimize pricing strategies and drive revenue growth.

    2025
  • Mindtickle Cracks the Code to Smarter Selling Using Generative AI on AWS

    Mindtickle is a revenue enablement platform that helps ramp sales teams quickly, expand customer accounts, and win big. The Mindtickle platform keeps teams up to speed with market changes and buyers' needs, combining training, content management, coaching, call insights, and digital sales rooms in one. Mindtickle uses generative AI on Amazon Web Services (AWS) to power Mindtickle Copilot, to help sales teams prep for meetings faster, engage with the modern buyer, and close deals more efficiently.
    2024
  • Spain

    Taptap Digital Accelerates Customers’ Advertising Success with Generative AI Using AWS

    Taptap Digital is an advertising technology company that leverages generative AI and machine learning on AWS to provide real-time predictive modeling capabilities. This enables their clients to achieve advertising success at scale by accurately targeting the right customers across multiple channels. AWS's high availability, global reach, and data protection tools are critical for Taptap Digital's operations, allowing them to process around 100,000 requests per second while maintaining compliance with data privacy regulations.
    2023
  • Swimming Australia Uses Data and Machine Learning on AWS to enhance Athlete Performance

    Swimming Australia, the national governing body for competitive swimming, is at the heart of a sport that is part of Australia’s DNA. With over 100,000 registered members across 1,100 clubs nationwide, the organization has built a legacy of creating world champions and driving Australia's Olympic success—amassing 239 medals, including 78 golds. Today, it remains committed to pushing the boundaries of athletic performance.
    2024
1 61

Erste Schritte

Organisationen aller Größen aus verschiedenen Sektoren transformieren ihre Unternehmen und erfüllen ihre Missionen täglich mithilfe von AWS. Kontaktieren Sie unsere Experten und begeben Sie sich noch heute Ihren Weg zu AWS.