Übersicht

Die MLOps-Workload-Orchestrator-Lösung hilft Ihnen, die bewährten Methoden der Architektur für Machine Learning (ML)-Modellproduktion zu optimieren und durchzusetzen. Diese Lösung ist ein erweiterbares Framework, das eine Standardschnittstelle zur Verwaltung von ML-Pipelines für AWS-ML-Services und Drittanbieter-Services bereitstellt. Die Vorlage der Lösung ermöglicht den Kunden:
- Das Trainieren von Modellen
- Ihre trainierten Modelle hochzuladen (auch als Bring Your Own Model [BYOM] bezeichnet)
- Die Orchestrierung der Pipeline zu konfigurieren
- Den Betrieb der Pipeline zu überwachen
Diese Lösung steigert die Flexibilität und Effizienz Ihres Teams, indem Sie ihnen ermöglichen, erfolgreiche Prozesse nach Maß zu wiederholen.
Vorteile

Verwenden Sie das Dashboard für Amazon-SageMaker-Modelle, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen (wie Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge) anzuzeigen.
Technische Details

Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:
- Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
- Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Steuerung, die Sicherheit und die Kontrolle der Errichtung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
-
Option 1 – Einzelkonto-Bereitstellung
-
Option 2: Bereitstellen eines Multikontos
-
Option 1 – Einzelkonto-Bereitstellung
-
Schritt 1
Der Orchestrator (Eigentümer der Lösung oder DevOps-Ingenieur) startet die Lösung im AWS-Konto und wählt die gewünschten Optionen aus (z. B. die Verwendung der Amazon-SageMaker-Modellregistrierung oder die Bereitstellung eines vorhandenen Amazon-S3-Buckets).Schritt 2
Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Trainingsdaten und/oder spezifische Algorithmus-ZIP-Datei) in das Amazon-S3-Bucket hoch. Wenn Sie die Amazon-SageMaker-Modellregistrierung verwenden, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell in der Modellregistrierung registrieren.Schritt 3a
Die Lösung stellt ein einziges AWS-CodePipeline-Konto bereit, indem sie entweder einen API-Aufruf an das Amazon API Gateway sendet oder die Datei mlops-config.json in das Git-Repository überträgt.
Schritt 3b
Abhängig vom Typ der Pipeline, bündelt die AWS-Lambda-Funktion des Orchestrators die AWS-CloudFormation-Zielvorlage und seine Parameter/Konfigurationen mithilfe des Bodys des API-Anrufs oder der mlops-config.json-Datei und nutzt dies als Quelle für die AWS-CodePipeline-Instance.Schritt 4
Die DeployPipeline-Phase nimmt das gebündelte CloudFormation-Muster und seine Parameter/Konfigurationen und richtet die Ziel-Pipeline im selben Konto ein.Schritt 5
Nachdem die Ziel-Pipeline bereitgestellt ist, können die Benutzer auf ihre Funktionen zugreifen. Eine Amazon Simple Notification Service (Amazon SNS)-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail-Adresse gesendet. -
Option 2: Bereitstellen eines Multikontos
-
Schritt 1
Der Orchestrator (Besitzer der Lösung oder DevOps-Engineer mit Admin-Zugang zum Orchestrator-Konto) liefert die AWS-Organizations-Information (z. B. Entwicklung, Staging und Produktion von organisatorischen Einheits-IDs und Kontonummern). Sie geben auch die gewünschten Optionen an (z. B. mithilfe der Modellregistrierung von Amazon SageMaker oder Bereitstellung eines vorhandenen S3-Buckets) und starten dann die Lösung in ihrem AWS-Konto.Schritt 2
Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Trainingsdaten und/oder spezifische Algorithmus-ZIP-Datei) in den Amazon-S3-Bucket im AWS-Orchestrator-Konto. Wenn Sie die Amazon-SageMaker-Modellregistrierung verwenden, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell in der Modellregistrierung registrieren.Schritt 3a
Die Lösung stellt eine Multikonten-Instance von AWS CodePipeline bereit, indem sie entweder einen API-Aufruf an das Amazon API Gateway sendet oder die Datei mlops-config.json in das Git-Repository überträgt.
Schritt 3b
Abhängig vom Typ der Pipeline bündelt die AWS-Lambda-Funktion des Orchestrators die AWS-CloudFormation-Zielvorlage und seine Parameter/Konfigurationen mithilfe des Körpers des API-Anrufs oder der mlops-config.json-Datei und nutzt dies als Quelle für die AWS-CodePipeline-Instance.Schritt 4
Die DeployDev-Phase nimmt das gebündelte CloudFormation-Muster und seine Parameter/Konfigurationen und richtet die Ziel-Pipeline im Entwicklungskonto ein.Schritt 5
Nachdem die Ziel-Pipeline im Entwicklungskonto bereitgestellt ist, kann der Entwickler auf der Pipeline iterieren.Schritt 6
Nach der Fertigstellung der Entwicklung akzeptiert der Orchestrator (oder ein anderes autorisiertes Konto) die DeployStaging-Aktion manuell, um zur DeployStaging-Phase zu gelangen.Schritt 7
In der DeployStaging-Phase wird die Ziel-Pipeline mithilfe der Staging-Konfiguration im Staging-Konto installiert.Schritt 8
Prüfer führen verschiedene Tests an der Ziel-Pipeline aus.Schritt 9
Wenn die Pipeline die Qualitätstests bestanden hat, kann der Orchestrator zur DeployProd-Aktion übergehen.Schritt 10
In der DeployProd-Phase wird die Ziel-Pipeline (mit Produktionskofigurationen) in das Produktionskonto integriert.Schritt 11
Schließlich ist die Ziel-Pipeline Live in der Produktion. Eine Amazon Simple Notification Service (Amazon SNS)-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail-Adresse gesendet.
Ähnliche Inhalte

In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.