Für was verwendet man diese AWS-Lösung?

Die MLOps-Workload-Orchestrator-Lösung hilft Ihnen, die bewährten Praktiken der Architektur für Machine Learning (ML)-Modellproduktion zu optimieren und durchzusetzen. Diese Lösung ist ein erweiterbares Framework, das eine Standard-Schnittstelle zur Verwaltung von ML-Pipelines für AWS-ML-Services und Drittpartei-Services bereitstellt. Die Vorlage der Lösung ermöglicht es den Kunden, ihre trainierten Modelle (auch Bring Your Own Model genannt) hochzuladen, die Orchestrierung der Pipeline zu konfigurieren und den Betrieb der Pipeline zu überwachen. Diese Lösung steigert die Flexibilität und Effizienz Ihres Teams, indem Sie ihnen ermöglichen, erfolgreiche Prozesse nach Maß zu wiederholen.

Vorteile

Nutzen Sie eine vorkonfigurierte Machine-Learning-Pipeline

Verwenden Sie die Referenzarchitektur der Lösung, um eine vorkonfigurierte Pipeline durch einen API-Aufruf oder ein Git-Repository zu initiieren.

Vorteile

Automatisch ein geschultes Modell und einen Inferenz-Endpunkt bereitstellen

Verwenden Sie das Framework der Lösung, um die Modellmonitor-Pipeline oder die Amazon SageMaker BYOM-Pipeline zu automatisieren. Stellen Sie einen Inferenz-Endpunkt mit Modell-Drift-Erkennung, verpackt als serverloser Mikroservice, bereit.

AWS-Lösungsübersicht

Das folgende Diagramm zeigt die Serverless-Architektur, die Sie mithilfe des Handbuchs für die Lösungsimplementierung und der zugehörigen AWS-CloudFormation-Vorlage automatisch bereitstellen können.

  • Option 1 – Einzelkonto-Bereitstellung
  • Option 2: Errichten eines Multikontos
  • Option 1 – Einzelkonto-Bereitstellung
  • AWS MLOps Framework | Referenz-Architekturdiagramm
     Zum Vergrößern klicken

    MLOps-Workload-Orchestrator-Referenzarchitektur (Einzelkonto-Bereitstellung)

    Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.

    Dieses Einzelkontomuster dieser Lösung bietet die folgenden Komponenten und Workflows:

    1. Der Orchestrator (Lösungsbesitzer oder DevOps-Engineer) startet die Lösung im AWS-Konto und wählt die gewünschten Optionen aus (z. B. mithilfe von Amazon-SageMaker-Registry oder der Bereitstellung eines vorhandenen Amazon-S3-Buckets).
    2. Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Training-Daten und/oder spezifische Algorithmus-ZIP-Datei) in den Komponenten-Amazon-S3-Bucket hoch. Wenn Amazon-SageMaker-Modell-Registry verwendet wird, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell bei der Modell-Registry registrieren.
    3. Eine Einzelkonto-Instance von AWS CodePipeline wird entweder durch das Senden eines API-Anrufs zum Amazon-API-Gateway bestimmt oder durch das Ablegen der mlops-config.json-Datei in dem Git-Repository. Abhängig vom Typ der Leitung, bündelt die AWS-Lambda-Funktion des Orchestrators die AWS-CloudFormation-Zielvorlage und seine Parameter/Konfigurationen mithilfe des Körpers des API-Anrufs oder der mlops-config.json-Datei und nutzt dies als Quelle für die AWS-CodePipeline-Instance.
    4. Die DeployPipeline-Phase nimmt das gebündelte CloudFormation-Muster und seine Parameter/Konfigurationen und richtet die Ziel-Pipeline im selben Konto ein.
    5. Nachdem die Ziel-Pipeline bereitgestellt ist, können die Benutzer auf ihre Funktionen zugreifen. Eine Amazon Simple Notification Service (Amazon SNS)-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail-Adresse gesendet.

    MLOps Workload Orchestrator

    Version 2.0.0
    Veröffentlichungsdatum: 05.2022
    Autor: AWS

    Geschätzte Bereitstellungszeit: 3 Minuten

    Geschätzter Preis 
    Verwenden Sie die Schaltfläche unten, um Lösungsaktualisierungen zu abonnieren.

    Hinweis: Um RSS-Aktualisierungen zu abonnieren, muss für den von Ihnen verwendeten Browser ein RSS-Plug-in aktiviert sein.  

    Hat Ihnen diese Lösungsimplementierung geholfen?
    Feedback geben 
  • Option 2: Errichten eines Multikontos
  • AWS MLOps Framework | Referenz-Architekturdiagramm
     Zum Vergrößern klicken

    MLOps-Workload-Orchestrator-Referenzarchitektur (Multikontoeinrichtung)

    Nutzen Sie das Muster für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Steuerung, die Sicherheit und die Kontrolle der Errichtung der ML-Leitung, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.

    Das Multikonto-Muster dieser Lösung bietet die folgenden Komponenten und Workflows:

    1. Der Orchestrator (Besitzer der Lösung oder DevOps-Engineer mit Admin-Zugang zum Orchestrator-Konto) liefert die AWS-Organizations-Information (z. B. Entwicklung, Staging und Produktion von organisatorischen Einheits-IDs und Kontonummern). Sie geben auch die gewünschten Optionen an (z. B. mithilfe von Amazon SageMaker Registry oder Bereitstellung eines vorhandenen S3-Buckets) und starten dann die Lösung in ihrem AWS-Konto.
    2. Der Orchestrator lädt die von der Ziel-Pipeline angeforderten Komponenten (z. B. Modellartefakt, Training-Daten und/oder spezifische Algorithmus-ZIP-Datei) in den Amazon-S3-Komponenten-Bucket im AWS-Orchestrator-Konto. Wenn Amazon-SageMaker-Modell-Registry verwendet wird, muss der Orchestrator (oder eine automatisierte Pipeline) das Modell bei der Modell-Registry registrieren.
    3. Eine Multikonto-Instance von AWS CodePipeline wird entweder durch das Senden eines API-Anrufs zum Amazon-API-Gateway bestimmt oder durch das Ablegen der mlops-config.json-Datei in dem Git-Repository. Abhängig vom Typ der Pipeline bündelt die AWS-Lambda-Funktion des Orchestrators die AWS-CloudFormation-Zielvorlage und seine Parameter/Konfigurationen mithilfe des Körpers des API-Anrufs oder der mlops-config.json-Datei und nutzt dies als Quelle für die AWS-CodePipeline-Instance.
    4. Die DeployDev-Phase nimmt das gebündelte CloudFormation-Muster und seine Parameter/Konfigurationen und richtet die Zielleitung im Entwicklungskonto ein.
    5. Nachdem die Zielleitung im Entwicklungskonto bereitgestellt ist, kann der Entwickler auf der Leitung iterieren.
    6. Nach der Fertigstellung der Entwicklung akzeptiert der Orchestrator (oder ein anderes autorisiertes Konto) die DeployStaging-Aktion manuell, um zur DeployStaging-Phase zu gelangen.
    7. In der DeployStaging-Phase wird die Zielleitung mithilfe der Staging-Konfiguration im Staging-Konto installiert.
    8. Prüfer führen verschiedene Tests an der Zielleitung aus.
    9. Wenn die Leitung die Qualitätstests bestanden hat, kann der Orchestrator zur DeployProd-Aktion übergehen.
    10. In der DeployProd-Phase wird die Zielleitung (mit Produktionskofigurationen) in das Produktionskonto integriert.
    11. Schließlich ist die Zielleitung Live in der Produktion. Eine Amazon Simple Notification Service (Amazon SNS)-Benachrichtigung wird an die in den Startparametern der Lösung angegebene E-Mail-Adresse gesendet.

    MLOps Workload Orchestrator

    Version 2.0.0
    Veröffentlichungsdatum: 05.2022
    Autor: AWS

    Geschätzte Bereitstellungszeit: 3 Minuten

    Geschätzter Preis 
    Verwenden Sie die Schaltfläche unten, um Lösungsaktualisierungen zu abonnieren.

    Hinweis: Um RSS-Aktualisierungen zu abonnieren, muss für den von Ihnen verwendeten Browser ein RSS-Plug-in aktiviert sein.  

    Hat Ihnen diese Lösungsimplementierung geholfen?
    Feedback geben 
Entwicklungssymbol
Bereitstellen einer eigenen Lösung

Durchsuchen Sie unsere Bibliothek der AWS-Lösungsimplementierungen, um Antworten auf häufige Architekturprobleme zu erhalten.

Weitere Informationen 
Einen APN-Partner suchen
Einen APN-Partner suchen

Finden Sie Beratungs- und Technologiepartner mit AWS-Zertifizierung, die Ihnen den Einstieg erleichtern.

Weitere Informationen 
Erkunden (Symbol)
Beratungsangebote für Lösungen erkunden

Durchsuchen Sie unser Portfolio mit Beratungsangeboten, um AWS-geprüfte Hilfe mit Lösungsbereitstellung zu erhalten.

Weitere Informationen