Was ist SageMaker Modelltraining?
Amazon-SageMaker-Modelltraining reduziert den Zeit- und Kostenaufwand für das Training und die Optimierung von Machine-Learning-Modellen (ML) in großem Maßstab, ohne dass die Infrastruktur verwaltet werden muss. Sie können die derzeit leistungsstärkste ML-Recheninfrastruktur nutzen, und Amazon SageMaker AI kann die Infrastruktur automatisch nach oben oder unten skalieren, von einem bis zu Tausenden von GPUs. Um Deep-Learning-Modelle schneller zu trainieren, hilft Ihnen SageMaker AI bei der Auswahl und Verfeinerung von Datensätzen in Echtzeit. Die verteilten Trainingsbibliotheken von SageMaker können große Modelle und Trainingsdatensätze automatisch auf mehrere AWS-GPU-Instances aufteilen. Alternativ können Sie Bibliotheken von Drittanbietern wie DeepSpeed, Horovod oder Megatron verwenden. Dank der automatischen Überwachung und Reparatur von Trainingsclustern lassen sich Basismodelle (FMs) über Wochen und Monate ununterbrochen trainieren.
Vorteile einer kostengünstigen Schulung
Modelle jeder Größenordnung trainieren
Vollständig verwaltete Trainingsaufträge
SageMaker-Trainingsaufträge bieten ein vollständig verwaltetes Benutzerlebnis für umfangreiche verteilte FM-Trainings, sodass die undifferenzierte Schwerstarbeit rund um die Infrastrukturverwaltung entfällt. SageMaker-Trainingsaufträge richten automatisch einen ausfallsicheren verteilten Trainingscluster ein, überwachen die Infrastruktur und beheben Fehler automatisch, um ein reibungsloses Trainingserlebnis zu gewährleisten. Sobald das Training abgeschlossen ist, dreht SageMaker den Cluster herunter und Ihnen wird die Netto-Trainingszeit in Rechnung gestellt. Darüber hinaus können Sie bei SageMaker-Schulungsaufträgen flexibel den Instance-Typ auswählen, der am besten zu einem bestimmten Workload passt (etwa ein großes Sprachmodell (LLM) auf einem P5-Cluster vorab trainieren oder ein Open-Source-LLM auf p4d-Instances optimieren), um Ihr Schulungsbudget weiter zu optimieren. Darüber hinaus bietet SageMaker ein konsistentes Benutzererlebnis für ML-Teams mit unterschiedlichem technischem Fachwissen und unterschiedlichen Workload-Typen.
SageMaker HyperPod
Amazon SageMaker HyperPod ist eine speziell entwickelte Infrastruktur zur effizienten Verwaltung von Rechenclustern, um die Entwicklung von Basismodellen (FM) zu skalieren. Es ermöglicht fortgeschrittene Modelltrainingstechniken, Infrastrukturkontrolle, Leistungsoptimierung und verbesserte Modellbeobachtbarkeit. SageMaker HyperPod ist mit verteilten Trainingsbibliotheken von SageMaker vorkonfiguriert, sodass Sie Ihre Modelle und Trainingsdatensätze automatisch auf mehrere AWS-Cluster-Instances aufteilen können, um die Rechen- und Netzwerkinfrastruktur des Clusters effizient zu nutzen. Das Tool ermöglicht eine belastbarere Trainingsumgebung, indem es Hardwarefehler automatisch erkennt, diagnostiziert und behebt, sodass Sie FMs über Monate hinweg ohne Unterbrechung trainieren können. Die Trainingszeit wird dadurch um bis zu 40 % verkürzt.
Leistungsstarkes verteiltes Training
SageMaker AI beschleunigt die Durchführung verteilter Schulungen, indem Ihre Modelle und Trainingsdatensätze automatisch auf AWS-Beschleuniger aufgeteilt werden. Es hilft Ihnen, Ihren Trainingsauftrag für die AWS-Netzwerkinfrastruktur und die Clustertopologie zu optimieren. Außerdem wird das Modell-Checkpointing über die Rezepte optimiert, indem die Häufigkeit des Speicherns von Checkpoints optimiert wird, wodurch ein minimaler Overhead während des Trainings gewährleistet wird. Mit den Rezepten profitieren Datenwissenschaftler und Entwickler aller Qualifikationsstufen von modernster Leistung, während sie schnell mit dem Training beginnen und öffentlich verfügbare Modelle der generativen KI optimieren können, darunter Llama 3.1 405B, Mixtral 8x22B und Mistral 7B. Die Rezepte enthalten einen von AWS getesteten Trainings-Stack, wodurch wochenlange mühsame Tests verschiedener Modellkonfigurationen entfallen. Sie können mit einer einzeiligen Rezeptänderung zwischen GPU-basierten und AWS Trainium-basierten Instances wechseln und automatisierte Modell-Checkpoints für eine verbesserte Trainingsresilienz aktivieren. Darüber hinaus können Sie Workloads in der Produktion mit dem SageMaker-Trainings-Feature Ihrer Wahl ausführen.
Integrierte Werkzeuge für höchste Genauigkeit und niedrigste Kosten
Automatische Modellabstimmung
SageMaker AI kann Ihr Modell automatisch optimieren, indem es Tausende von Algorithmus-Parameter-Kombinationen anpasst, um die genauesten Vorhersagen zu erhalten, und so wochenlange Arbeit einspart. Es hilft Ihnen, die beste Version eines Modells zu finden, indem Sie viele Trainingsaufträge an Ihrem Datensatz ausführen.

Managed Spot Training
SageMaker AI hilft, die Schulungskosten um bis zu 90 Prozent zu senken, indem Schulungsaufträge automatisch ausgeführt werden, sobald Rechenkapazität verfügbar ist. Diese Ausbildungsberufe sind auch widerstandsfähig gegen Unterbrechungen, die durch Kapazitätsänderungen verursacht werden.
Debugging
Amazon SageMaker Debugger erfasst Kennzahlen und erstellt Profile für Trainingsjobs in Echtzeit, sodass Sie Leistungsprobleme schnell korrigieren können, bevor Sie das Modell in der Produktion einsetzen. Zum Debuggen können Sie sich auch per Fernzugriff mit der Modelltrainingsumgebung in SageMaker verbinden und haben dann Zugriff auf den zugrunde liegenden Trainingscontainer.

Profiler

Integrierte Tools für Interaktivität und Überwachung
Amazon SageMaker mit MLflow
Verwenden Sie MLflow mit SageMaker Training, um Eingabeparameter, Konfigurationen und Ergebnisse zu erfassen. So können Sie schnell die leistungsfähigsten Modelle für Ihren Anwendungsfall identifizieren. Die MLflow-Benutzeroberfläche ermöglicht es Ihnen, Modelltrainingsversuche zu analysieren und mühelos Kandidatenmodelle für die Produktion in einem schnellen Schritt zu registrieren.

Amazon SageMaker mit TensorBoard
Amazon SageMaker mit TensorBoard hilft Ihnen, Entwicklungszeit zu sparen, indem Sie die Modellarchitektur visualisieren, um Konvergenzprobleme zu identifizieren und zu beheben, wie z.B. nicht konvergierende Validierungsverluste oder verschwindende Gradienten.

Flexibles und schnelleres Training
Vollständige Anpassung
SageMaker AI verfügt über integrierte Bibliotheken und Tools, die das Modelltraining einfacher und schneller machen. SageMaker AI arbeitet mit gängigen Open-Source-ML-Modellen wie GPT, BERT und DALL·E, ML-Frameworks wie PyTorch und TensorFlow sowie Transformern wie Hugging Face. Mit SageMaker AI können Sie je nach Bedarf beliebte Open-Source-Bibliotheken und -Tools wie DeepSpeed, Megatron, Horovod, Ray Tune und TensorBoard verwenden.

Lokale Code-Konvertierung
Mit dem Amazon SageMaker Python SDK können Sie ML-Code, der in Ihrer bevorzugten integrierten Entwicklungsumgebung (IDE) und lokalen Notebooks erstellt wurde, zusammen mit den zugehörigen Laufzeitabhängigkeiten als ML-Modelltrainingsaufträge im großen Maßstab mit minimalen Codeänderungen ausführen. Sie müssen Ihrem lokalen ML-Code nur eine Codezeile (Python-Decorator) hinzufügen. Das SageMaker Python SDK übernimmt den Code zusammen mit den Datensätzen und der Einrichtung der Arbeitsbereichsumgebung und führt ihn als SageMaker-Trainingsauftrag aus.
Automatisierte ML-Training-Workflows
Durch die Automatisierung von Training-Workflows mit Amazon SageMaker Pipelines können Sie einen wiederholbaren Prozess zur Orchestrierung von Modellentwicklungsschritten für schnelles Experimentieren und erneutes Modelltraining erstellen. Sie können Schritte automatisch in regelmäßigen Intervallen oder wenn bestimmte Ereignisse ausgelöst werden, oder Sie können sie bei Bedarf manuell ausführen.
Flexible Trainingspläne
Um Ihre Schulungsfristen und -budgets einzuhalten, unterstützt Sie SageMaker AI bei der Erstellung der kosteneffizientesten Schulungspläne, die Rechenressourcen aus mehreren Blöcken der Rechenkapazität nutzen. Sobald Sie die Schulungspläne genehmigt haben, stellt SageMaker AI automatisch die Infrastruktur bereit und führt die Schulungsaufträge auf diesen Rechenressourcen aus, ohne dass ein manueller Eingriff erforderlich ist. So sparen Sie sich wochenlange Arbeit bei der Verwaltung des Schulungsprozesses, um die Aufträge an die Rechenverfügbarkeit anzupassen.
Ressourcen
Neuerungen
Total results: 5
- Datum (neuestes bis ältestes)
-
20.12.2023
-
29.11.2023
-
15.07.2022
-
08.07.2022
-
10.06.2022