MLOps Workload Orchestrator

Stellen Sie eine robuste Pipeline bereit, die verwaltete Automatisierungstools und ML-Services nutzt, um die Entwicklung und Produktion von ML-Modellen zu vereinfachen.

Übersicht

Die MLOps-Workload-Orchestrator-Lösung hilft Ihnen, die bewährten Methoden der Architektur für Machine Learning (ML)-Modellproduktion zu optimieren und durchzusetzen. Diese Lösung ist ein erweiterbares Framework, das eine Standardschnittstelle zur Verwaltung von ML-Pipelines für AWS-ML-Services und Drittanbieter-Services bereitstellt. Die Vorlage der Lösung ermöglicht den Kunden:

  • Das Trainieren von Modellen
  • Ihre trainierten Modelle hochzuladen (auch als Bring Your Own Model [BYOM] bezeichnet)
  • Die Orchestrierung der Pipeline zu konfigurieren
  • Den Betrieb der Pipeline zu überwachen

Diese Lösung steigert die Flexibilität und Effizienz Ihres Teams, indem Sie ihnen ermöglichen, erfolgreiche Prozesse nach Maß zu wiederholen.

 

Vorteile

Nutzen Sie eine vorkonfigurierte Machine-Learning-Pipeline
Verwenden Sie die Referenzarchitektur der Lösung, um eine vorkonfigurierte Pipeline durch einen API-Aufruf oder ein Git-Repository zu initiieren.
Automatisch ein geschultes Modell und einen Inferenz-Endpunkt bereitstellen
Verwenden Sie das Framework der Lösung, um die Modellmonitor-Pipeline oder die Amazon SageMaker BYOM-Pipeline zu automatisieren. Stellen Sie einen Inferenz-Endpunkt mit Modell-Drift-Erkennung, verpackt als Serverless-Mikroservice, bereit.
Zeigen Sie Ihre Ressourcen in einem Dashboard an

Verwenden Sie das Dashboard für Amazon-SageMaker-Modelle, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen (wie Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge) anzuzeigen.

Technische Details

Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:

  1. Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
  2. Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Steuerung, die Sicherheit und die Kontrolle der Errichtung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
  • Option 1 – Einzelkonto-Bereitstellung
  • Option 2: Bereitstellen eines Multikontos
Fallstudie
Cognizant MLOps Model Lifecycle Orchestrator beschleunigt die Bereitstellung von Machine-Learning-Modellen mithilfe von AWS-Lösungen von Wochen auf Stunden

In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.

Lesen Sie die Fallstudie 
Über diese Bereitstellung
Version
2.2.0
Veröffentlicht
08/2023
Autor
AWS
Geschätzte Bereitstellungszeit
3 Min.
Geschätzte Kosten
Quellcode  CloudFormation-Vorlagen  RSS-Feed abonnieren 
Bereitstellungsoptionen
Sind Sie startbereit?
Stellen Sie diese Lösung bereit, indem Sie sie in Ihrer AWS-Konsole starten

Brauchen Sie Hilfe? Stellen Sie mit einem Partner bereit.
Finden Sie einen AWS-zertifizierten Drittanbieter-Experten, der Sie bei dieser Bereitstellung unterstützt
Hat Ihnen diese AWS-Lösung geholfen?
Feedback geben