Übersicht

Machine Learning Operations (MLOps) Workload Orchestrator optimiert die Bereitstellung von ML-Modellen und setzt bewährte Methoden für Skalierbarkeit, Zuverlässigkeit und Effizienz durch. Diese AWS-Lösung ist ein erweiterbares Framework mit einer Standardschnittstelle zur Verwaltung von ML-Pipelines über AWS-ML- und Drittanbieter-Services.
Diese Lösung enthält eine AWS-CloudFormation-Vorlage: Diese Vorlage ermöglicht das Modelltraining, das Hochladen von vorab trainierten Modellen (auch bekannt als Bring Your Own Model oder BYOM), die Konfiguration der Pipeline-Orchestrierung und die Überwachung des Pipeline-Betriebs. Durch die Implementierung dieser Lösung kann Ihr Team seine Agilität und Effizienz steigern, erfolgreiche Prozesse in großem Maßstab zu wiederholen.
Vorteile

Initiieren Sie eine vorkonfigurierte Pipeline durch einen API-Aufruf oder einen Amazon-S3-Bucket.
Automatisieren Sie die Modellüberwachung mit Amazon SageMaker BYOM und stellen Sie einen Serverless-Inferenzendpunkt mit Drift-Erkennung bereit.
Verwenden Sie das Amazon SageMaker Model Dashboard, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen, einschließlich Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge, anzuzeigen, zu durchsuchen und zu erkunden.
Technische Details

Sie können diese Architektur mit dem Implementierungsleitfaden und der dazugehörigen AWS-CloudFormation-Vorlage automatisch bereitstellen. Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:
- Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
- Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Governance, die Sicherheit und die Kontrolle der Bereitstellung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
-
Option 1 – Einzelkonto-Bereitstellung
-
Option 2 – Bereitstellen eines Multikontos
-
Option 1 – Einzelkonto-Bereitstellung
-
Schritt 1
Der Orchestrator, bei dem es sich um einen DevOps-Techniker oder einen anderen Benutzertyp handeln kann, startet diese Lösung in seinem AWS-Konto und wählt die bevorzugten Optionen aus. Sie können beispielsweise die Amazon SageMaker Model Registry oder einen vorhandenen Bucket von Amazon Simple Storage Service (Amazon S3) verwenden.
-
Option 2 – Bereitstellen eines Multikontos
-
Schritt 1
Der Orchestrator, der ein DevOps-Techniker oder ein anderer Benutzer mit Admin-Zugang zum Orchestrator-Konto sein könnte, liefert die AWS-Organizations-Information, beispielsweise Entwicklung, Staging und Produktion von organisatorischen Einheiten-IDs und Kontonummern.
Ähnliche Inhalte

In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.
Total results: 3
- Überschrift
-
Digital Natives & Startups
-
Artificial Intelligence
-
Analytics
Total results: 1
- Datum der Veröffentlichung
-
- Version: 2.2.3
- Veröffentlicht: 12/2024
- Autor: AWS
- Geschätzte Bereitstellungszeit: 3 Minuten
- Geschätzte Kosten: Details anzeigen