MLOps-Workload-Orchestrator in AWS

Eine robuste Pipeline bereitstellen, die verwaltete Automatisierungstools und ML-Services nutzt, um die Entwicklung und Produktion von ML-Modellen zu vereinfachen

Übersicht

MLOps-Workload-Orchestrator hilft Ihnen, die bewährten Methoden der Architektur für Machine Learning (ML)-Modellproduktion zu optimieren und durchzusetzen. Diese AWS-Lösung ist ein erweiterbares Framework, das eine Standardschnittstelle zur Verwaltung von ML-Pipelines für AWS-ML-Services und Drittanbieter-Services bereitstellt.

Die Vorlage der Lösung ermöglicht es Ihnen, Ihre trainierten Modelle (auch Bring Your Own Model [BYOM] genannt) hochzuladen, die Orchestrierung der Pipeline zu konfigurieren und den Betrieb der Pipeline zu überwachen. Mit dieser Lösung können Sie die Flexibilität und Effizienz Ihres Teams steigern, indem Sie ihnen ermöglichen, erfolgreiche Prozesse nach Maß zu wiederholen.

Vorteile

Eine vorkonfigurierte ML-Pipeline nutzen
Verwenden Sie die Referenzarchitektur der Lösung, um eine vorkonfigurierte Pipeline durch einen API-Aufruf oder ein Git-Repository zu initiieren.
Automatisch ein geschultes Modell und einen Inferenz-Endpunkt bereitstellen
Verwenden Sie das Framework der Lösung, um die Modellmonitor-Pipeline oder die Amazon SageMaker BYOM-Pipeline zu automatisieren. Stellen Sie einen Inferenz-Endpunkt mit Modell-Drift-Erkennung, verpackt als Serverless-Mikroservice, bereit.
Zeigen Sie Ihre Ressourcen in einem Dashboard an

Verwenden Sie das Dashboard für Amazon-SageMaker-Modelle, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen (wie Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge) anzuzeigen.

Technische Details

Sie können diese Architektur mit dem Implementierungsleitfaden und der dazugehörigen AWS-CloudFormation-Vorlage automatisch bereitstellen. Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:

  1. Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
  2. Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Governance, die Sicherheit und die Kontrolle der Bereitstellung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
  • Option 1 – Einzelkonto-Bereitstellung
  • Option 2 – Bereitstellen eines Multikontos
Fallstudie
Cognizant MLOps Model Lifecycle Orchestrator beschleunigt die Bereitstellung von Machine-Learning-Modellen mithilfe von AWS-Lösungen von Wochen auf Stunden

In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.

Fallstudie lesen 
Anwendungsfälle für diese AWS-Lösung
  • Überschrift
Weitere Informationen ...
Über diese Bereitstellung
  • Datum der Veröffentlichung
Bereitstellungsoptionen
Sind Sie startbereit?
Stellen Sie diese Lösung bereit, indem Sie sie in Ihrer AWS-Konsole starten

Brauchen Sie Hilfe? Stellen Sie mit einem Partner bereit.
Finden Sie einen AWS-zertifizierten Drittanbieter-Experten, der Sie bei dieser Bereitstellung unterstützt

War diese Seite hilfreich?