Übersicht
MLOps-Workload-Orchestrator hilft Ihnen, die bewährten Methoden der Architektur für Machine Learning (ML)-Modellproduktion zu optimieren und durchzusetzen. Diese AWS-Lösung ist ein erweiterbares Framework, das eine Standardschnittstelle zur Verwaltung von ML-Pipelines für AWS-ML-Services und Drittanbieter-Services bereitstellt.
Die Vorlage der Lösung ermöglicht es Ihnen, Ihre trainierten Modelle (auch Bring Your Own Model [BYOM] genannt) hochzuladen, die Orchestrierung der Pipeline zu konfigurieren und den Betrieb der Pipeline zu überwachen. Mit dieser Lösung können Sie die Flexibilität und Effizienz Ihres Teams steigern, indem Sie ihnen ermöglichen, erfolgreiche Prozesse nach Maß zu wiederholen.
Vorteile
Verwenden Sie das Dashboard für Amazon-SageMaker-Modelle, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen (wie Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge) anzuzeigen.
Technische Details
Sie können diese Architektur mit dem Implementierungsleitfaden und der dazugehörigen AWS-CloudFormation-Vorlage automatisch bereitstellen. Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:
- Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
- Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Governance, die Sicherheit und die Kontrolle der Bereitstellung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
-
Option 1 – Einzelkonto-Bereitstellung
-
Option 2 – Bereitstellen eines Multikontos
-
Option 1 – Einzelkonto-Bereitstellung
-
Schritt 1
Der Orchestrator (Eigentümer der Lösung oder DevOps-Ingenieur) startet die Lösung im AWS-Konto und wählt die gewünschten Optionen aus (z. B. die Verwendung von Amazon SageMaker Model Registry oder die Bereitstellung eines vorhandenen Amazon Simple Storage Service [Amazon S3]-Buckets).Schritt 2
Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Trainingsdaten oder spezifische Algorithmus-ZIP-Datei) in das S3-Assets-Bucket hoch. Wenn Sie Amazon SageMaker Model Registry verwenden, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell in der Modellregistrierung registrieren.Schritt 3a
Die Lösung stellt eine AWS-CodePipeline für Einzelkonten bereit, indem sie entweder einen API-Aufruf an das Amazon API Gateway sendet oder die Datei mlops-config.json in das Git-Repository überträgt.
Schritt 3b
Abhängig vom Typ der Pipeline, bündelt die AWS-Lambda-Funktion des Orchestrators die AWS-CloudFormation-Zielvorlage und seine Parameter und Konfigurationen mithilfe des Körpers des API-Aufrufs oder der mlops-config.json-Datei und nutzt dies dann als Quelle für die CodePipeline-Instance.Schritt 4
Die DeployPipeline -Phase nimmt die gebündelte CloudFormation-Vorlage und seine Parameter und Konfigurationen und richtet die Ziel-Pipeline im selben Konto ein.Schritt 5
Nachdem die Ziel-Pipeline bereitgestellt ist, können die Benutzer auf ihre Funktionen zugreifen. Eine Amazon Simple Notification Service (Amazon SNS)-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail-Adresse gesendet. -
Option 2 – Bereitstellen eines Multikontos
-
Schritt 1
Der Orchestrator (Besitzer der Lösung oder DevOps-Ingenieur mit Admin-Zugang zum Orchestrator-Konto) liefert die AWS-Organizations-Information (z. B. Entwicklung, Staging und Produktion von organisatorischen Einheiten-IDs und Kontonummern).
Sie geben auch die gewünschten Optionen an (z. B. mithilfe der Modellregistrierung von SageMaker oder Bereitstellung eines vorhandenen S3-Buckets) und starten dann die Lösung in ihrem AWS-Konto.
Schritt 2
Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Trainingsdaten oder spezifische Algorithmus-ZIP-Datei) in den S3-Bucket im AWS-Orchestrator-Konto. Wenn Sie die SageMaker-Modellregistrierung verwenden, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell in der Modellregistrierung registrieren.
Schritt 3a
Die Lösung stellt eine CodePipeline-Instance mit mehreren Konten bereit, indem sie entweder einen API-Aufruf an das API-Gateway sendet oder die Datei mlops-config.json in das Git-Repository überträgt.
Schritt 3b
Abhängig vom Typ der Pipeline bündelt die Lambda-Funktion des Orchestrators die CloudFormation-Zielvorlage und seine Parameter und Konfigurationen für jede Phase mithilfe des Körpers des API-Aufrufs oder der mlops-config.json-Datei und nutzt dies dann als Quelle für die CodePipeline-Instance.Schritt 4
Die DeployDev-Phase nimmt die gebündelte CloudFormation-Vorlage und seine Parameter und Konfigurationen und richtet die Ziel-Pipeline im Entwicklungskonto ein.Schritt 5
Nachdem die Ziel-Pipeline im Entwicklungskonto bereitgestellt ist, kann der Entwickler auf der Pipeline iterieren.Schritt 6
Nach der Fertigstellung der Entwicklung akzeptiert der Orchestrator (oder ein anderes autorisiertes Konto) die DeployStaging-Aktion manuell, um zur DeployStaging-Phase zu gelangen.Schritt 7
In der DeployStaging-Phase wird die Ziel-Pipeline mithilfe der Staging-Konfiguration im Staging-Konto installiert.Schritt 8
Prüfer führen verschiedene Tests an der Ziel-Pipeline aus.Schritt 9
Wenn die Pipeline die Qualitätstests bestanden hat, kann der Orchestrator zur DeployProd-Aktion übergehen.Schritt 10
In der DeployProd-Phase wird die Ziel-Pipeline (mit Produktionskofigurationen) in das Produktionskonto integriert.Schritt 11
Die Ziel-Pipeline ist Live in der Produktion. Eine SNS-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail gesendet.
Ähnliche Inhalte
In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.
- Datum der Veröffentlichung