Allgemeines

F: Was ist Amazon SageMaker?

Amazon SageMaker ist ein vollständig verwalteter Service zum Entwickeln, Trainieren und Bereitstellen von Modellen für Machine Learning (ML) für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows.

F: In welchen Regionen ist Amazon SageMaker verfügbar?

Eine Liste der unterstützten AWS-Regionen für Amazon SageMaker finden Sie in der AWS-Regionstabelle, wo Sie Informationen zur gesamten globalen AWS-Infrastruktur erhalten. Weitere Informationen erhalten Sie außerdem unter Regionen und Endpunkte in der allgemeinen AWS-Referenz.

F: Wie ist die Serviceverfügbarkeit von Amazon SageMaker?

Amazon SageMaker ist für hohe Verfügbarkeit konzipiert. Es gibt keine Wartungsfenster und keine geplanten Ausfallzeiten. SageMaker-APIs werden in den bewährten Hochverfügbarkeits-Rechenzentren von Amazon ausgeführt. Die Replizierung des Service-Stacks arbeitet an drei Standorten in jeder AWS-Region und bietet so eine Fehlertoleranz bei eventuellen Ausfällen von Server oder Availability Zone.

F: Wie sichert Amazon SageMaker meinen Code?

Amazon SageMaker speichert Codes in ML-Speicher-Volumes, die von Sicherheitsgruppen gesichert und optional im Ruhezustand verschlüsselt werden.

F: Welche Sicherheitsmaßnahmen gibt es bei Amazon SageMaker?

Amazon SageMaker stellt sicher, dass ML-Modellartefakte und andere Systembestandteile sowohl bei der Übertragung als auch im inaktiven Zustand verschlüsselt sind. Anforderungen an die SageMaker-API und die Konsole werden über eine sichere SSL-Verbindung gesendet. Sie übergeben AWS Identity and Access Management-Rollen an SageMaker, um Berechtigungen für den Zugriff auf Ressourcen in Ihrem Namen für Training und Implementierung bereitzustellen. Sie können verschlüsselte Amazon-S3-Buckets für Modellartefakte und Daten verwenden sowie einen AWS Key Management Service (KMS)-Schlüssel an SageMaker-Notebooks, Trainingsaufgaben und Endpunkte übergeben, um das angefügte ML-Speicher-Volumen zu verschlüsseln. Amazon SageMaker unterstützt auch Amazon Virtual Private Cloud (VPC) und AWS PrivateLink.

F: Verwendet oder teilt Amazon SageMaker Modelle, Trainingsdaten oder Algorithmen?

Amazon SageMaker verwendet oder teilt keine Kundenmodelle, Trainingsdaten oder Algorithmen. Wir wissen, dass der Datenschutz und die Datensicherheit unseren Kunden ein sehr großes Anliegen sind. Das ist der Grund, warum AWS Ihnen das Eigentum und die Kontrolle über Ihre Inhalte durch einfache, leistungsstarke Tools gibt, mit denen Sie festlegen können, wo Ihre Inhalte gespeichert werden, und mit denen Sie Ihre Inhalte während der Übertragung und im Ruhezustand sichern und Ihren Zugriff auf AWS-Services und Ressourcen für Ihre Benutzer verwalten können. Wir implementieren außerdem verantwortungsvolle und fortgeschrittene technische und physische Kontrollen, um den nicht autorisierten Zugriff auf Ihre Inhalte oder deren Offenlegung zu verhindern. Als Kunde bleiben Sie der Eigentümer Ihrer Inhalte und können sich entscheiden, welche AWS-Services Ihre Inhalte verarbeiten, speichern und hosten können. Wir greifen niemals auf Ihre Inhalte zu, ohne Sie vorher um Erlaubnis gebeten zu haben.

F: Wie wird die Verwendung von Amazon SageMaker berechnet?

Sie zahlen für ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie zum Hosten des Notebooks, Trainieren des Modells, Treffen von Vorhersagen und Protokollieren von Ausgaben nutzen. Mit Amazon SageMaker können Sie die Anzahl und den Typ der Instances auswählen, die für das gehostete Notebook, Trainings und das Modell-Hosting verwendet werden. Sie zahlen nur für den tatsächlichen Gebrauch. Es fallen keine Mindestgebühren oder Vorauszahlungen an. Weitere Informationen finden Sie auf der Amazon-SageMaker-Preisseite und dem Amazon-SageMaker-Preisrechner.

F: Wie kann ich meine Amazon-SageMaker-Kosten optimieren, z. B. das Erkennen und Stoppen nicht genutzter Ressourcen, um unnötige Gebühren zu vermeiden?

Es gibt verschiedene bewährte Methoden, mit denen Sie die Ressourcennutzung von Amazon SageMaker optimieren können. Einige Ansätze beinhalten Konfigurationsoptimierungen, andere programmatische Lösungen. Eine vollständige Anleitung zu diesem Konzept mit visuellen Tutorials und Codebeispielen finden Sie in diesem Blog-Beitrag.

F: Was ist, wenn ich über meine eigene Notebook-, Trainings- oder Hosting-Umgebung verfüge?

Amazon SageMaker bietet einen vollständigen, durchgehenden Workflow, aber Sie können Ihre vorhandenen Tools weiterhin mit SageMaker verwenden. Sie können die Ergebnisse jeder Phase ganz einfach gemäß Ihren Geschäftsanforderungen in oder aus SageMaker übertragen.

F: Wird R mit Amazon SageMaker unterstützt?

Ja, R wird von Amazon SageMaker unterstützt. Sie können R innerhalb von SageMaker-Notebook-Instances verwenden, die einen vorinstallierten R-Kernel und die Reticulate-Bibliothek enthalten. Reticulate bietet eine R-Schnittstelle für das Python-SDK von Amazon SageMaker, die es ML-Anwendern ermöglicht, R-Modelle zu erstellen, zu trainieren, abzustimmen und einzusetzen. 

F: Wie kann ich in meinem Modell nach Ungleichgewichten suchen?

Amazon SageMaker Clarify hilft bei der Verbesserung der Modelltransparenz, indem statistische Verzerrungen über den gesamten ML-Workflow hinweg erkannt werden. SageMaker Clarify prüft auf Ungleichgewichte während der Datenaufbereitung, nach dem Training und im Laufe der Zeit und enthält außerdem Tools zur Erläuterung der ML-Modelle und ihrer Prognosen. Die Ergebnisse können über Erklärbarkeitsberichte ausgetauscht werden.

F: Welche Art von Verzerrung erkennt Amazon SageMaker Clarify?

Die Messung der Verzerrung in ML-Modellen ist ein erster Schritt zur Verringerung der Verzerrung. Die Verzerrung kann vor dem Training und nach dem Training sowie als Rückschluss auf ein eingesetztes Modell gemessen werden. Jedes Maß der Verzerrung entspricht einem anderen Begriff der Fairness. Selbst wenn man einfache Vorstellungen von Fairness berücksichtigt, führt dies zu vielen verschiedenen Maßnahmen, die in verschiedenen Kontexten anwendbar sind. Sie müssen einseitige Begriffe und Metriken wählen, die für die Anwendung und die untersuchte Situation gültig sind. SageMaker unterstützt derzeit die Berechnung verschiedener Metriken für Trainingsdaten (als Teil der SageMaker-Datenvorbereitung), für das trainierte Modell (als Teil von SageMaker Experiments) und für die Inferenz für ein bereitgestelltes Modell (als Teil von SageMaker Model Monitor). Zum Beispiel stellen wir vor dem Training Metriken zur Verfügung, um zu überprüfen, ob die Trainingsdaten repräsentativ sind (d. h. ob eine Gruppe unterrepräsentiert ist) und ob es Unterschiede in der Markierungsverteilung zwischen den Gruppen gibt. Nach dem Training oder während des Bereitstellens können Metriken hilfreich sein, um zu messen, ob (und um wie viel) sich die Leistung des Modells zwischen den Gruppen unterscheidet. Beginnen Sie beispielsweise mit einem Vergleich der Fehlerquoten (wie wahrscheinlich ist es, dass die Vorhersage eines Modells von der wahren Bezeichnung abweicht) oder unterteilen Sie weiter in Präzision (wie wahrscheinlich ist es, dass eine positive Vorhersage richtig ist) und Recall (wie wahrscheinlich ist es, dass das Modell ein positives Beispiel richtig bezeichnet).

F: Wie verbessert Amazon SageMaker Clarify die Erklärbarkeit des Modells?

Amazon SageMaker Clarify ist in SageMaker-Experimente integriert, um ein Funktionswichtigkeitsdiagramm bereitzustellen, in dem die Wichtigkeit jeder Eingabe für den gesamten Entscheidungsprozess Ihres Modells nach dem Training des Modells aufgeführt ist. Mithilfe dieser Details können Sie feststellen, ob eine bestimmte Modelleingabe mehr Einfluss auf das Gesamtmodellverhalten hat als erwartet. SageMaker Clarify stellt auch Erklärungen zu einzelnen Vorhersagen über eine API zur Verfügung.
 

F: Was ist Amazon SageMaker Studio?

Amazon SageMaker Studio bietet eine einzige webbasierte visuelle Oberfläche, auf der Sie alle ML-Entwicklungsschritte ausführen können. Mit SageMaker Studio erhalten Sie vollständigen Zugriff, Kontrolle und Einblick in alle Schritte, die zum Erstellen, Trainieren und Bereitstellen von Modellen erforderlich sind. Sie können schnell Daten hochladen, neue Notizbücher erstellen, Modelle schulen und optimieren, zwischen den Schritten hin und her wechseln, um Experimente anzupassen, Ergebnisse zu vergleichen und Modelle an einem Ort für die Produktion bereitzustellen, wodurch Sie viel produktiver werden. Alle ML-Entwicklungsaktivitäten, einschließlich Notebooks, Experimentverwaltung, automatische Modellerstellung, Debugging und Profilerstellung sowie Modellabweichungserkennung, können über die einheitliche visuelle Oberfläche von SageMaker Studio ausgeführt werden.

F: Was ist RStudio auf SageMaker?

Amazon SageMaker Studio bietet eine webbasierte visuelle Schnittstelle zur einfachen Erstellung Ihrer Modelle in der Python-Programmiersprache. Sie können Daten für maschinelles Lernen in der Programmiersprache R mit elastischen Rechenressourcen in RStudio auf SageMaker, der ersten vollständig verwalteten RStudio Workbench in der Cloud, analysieren und visualisieren.

F: Was ist die Preisstruktur von Amazon SageMaker Studio?

Für die Nutzung von Amazon SageMaker Studio fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die zugrunde liegenden Rechen- und Speichergebühren für die Services, die Sie in Amazon SageMaker Studio verwenden.

F: In welchen Regionen wird Amazon SageMaker Studio unterstützt?

Die Regionen, in denen Amazon SageMaker Studio unterstützt wird, finden Sie in der Dokumentation hier.

Low-Code-ML

F: Was ist Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot ist die erste automatisierte Machine Learning-Funktion der Branche, mit der Sie Ihre ML-Modelle vollständig steuern und überwachen können. SageMaker Autopilot überprüft automatisch die Rohdaten, wendet Feature-Prozessoren an, wählt die besten Algorithmen aus, trainiert und optimiert mehrere Modelle, verfolgt deren Leistung und ordnet die Modelle mit nur wenigen Klicks anhand der Leistung. Das Ergebnis ist das Modell mit der besten Leistung, das Sie zu einem Bruchteil der für das Trainieren des Modells normalerweise erforderlichen Zeit bereitstellen können. Sie erhalten einen vollständigen Überblick darüber, wie das Modell erstellt wurde und was darin enthalten ist, und SageMaker Autopilot lässt sich in Amazon SageMaker Studio integrieren. Sie können bis zu 50 verschiedene Modelle, die von SageMaker Autopilot generiert wurden, in SageMaker Studio untersuchen. Auf diese Weise können Sie das beste Modell für Ihren Anwendungsfall einfach auswählen. SageMaker Autopilot kann von Personen ohne Erfahrung mit ML verwendet werden, um auf einfache Weise ein Modell zu erstellen, oder von erfahrenen Entwicklern, um schnell ein Basismodell zu entwickeln, auf dem Teams weiter iterieren können.

F: Welche integrierten Algorithmen werden in Amazon SageMaker Autopilot unterstützt?

Amazon SageMaker Autopilot unterstützt 2 integrierte Algorithmen: XGBoost und Linear Learner.

F: Kann ich eine Amazon SageMaker Autopilot-Aufgabe manuell anhalten?

Ja. Sie können eine Aufgabe jederzeit anhalten. Wenn eine Amazon SageMaker Autopilot-Aufgabe angehalten wurde, werden alle laufenden Versuche ebenfalls angehalten, und es werden keine neuen Versuche gestartet.

F: Was sind die ersten Schritte mit Amazon SageMaker?

Amazon SageMaker JumpStart hilft Ihnen, schnell und einfach mit ML zu beginnen. Der SageMaker JumpStart bietet eine Reihe von Lösungen für die häufigsten Anwendungsfälle, die mit nur wenigen Klicks bereitgestellt werden können. Die Lösungen sind vollständig anpassbar, und präsentieren die Anwendung von AWS CloudFormation Vorlagen und Referenzarchitektur, sodass Sie Ihre ML-Reise beschleunigen können. SageMaker JumpStart unterstützt auch die Ein-Klick-Bereitstellung und Feinabstimmung von mehr als 150 gängigen Open-Source-Modellen, beispielsweise für Transformer, zur Objekterkennung oder zur Bildklassifizierung. 

F: Welche Open-Source-Modelle werden von Amazon SageMaker JumpStart unterstützt?

Amazon SageMaker JumpStart enthält mehr als 150 vortrainierte Open-Source-Modelle von PyTorch Hub und TensorFlow Hub. Für Sichtaufgaben wie Bildklassifizierung und Objekterkennung können Sie Modelle wie ResNet, MobileNet und Single-Shot Detector (SSD) nutzen. Für Textaufgaben wie Satzklassifizierung, Textklassifizierung und Beantwortung von Fragen können Sie Modelle wie BERT, RoBERTa und DistilBERT verwenden.

F: Welche Lösungen sind in Amazon SageMaker JumpStart bereits enthalten?

SageMaker JumpStart enthält Lösungen, die mit allen erforderlichen AWS-Services vorkonfiguriert sind, um eine Lösung in die Produktion zu bringen. Die Lösungen sind vollständig personalisierbar, so dass Sie sie problemlos an Ihren speziellen Anwendungsfall und Datensatz anpassen können. Sie können Lösungen für über 15 Anwendungsfälle verwenden, einschließlich Bedarfsprognose, Betrugserkennung und vorausschauende Wartung, und Lösungen mit nur wenigen Klicks bereitstellen. Weitere Informationen zu allen verfügbaren Lösungen finden Sie auf der SageMaker-Seite Erste Schritte

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker JumpStart?

Die Kosten für die AWS-Services, die von SageMaker JumpStart aus gestartet werden, wie z. B. Trainingsaufträge und Endpunkte, werden Ihnen auf der Grundlage der Preise zu SageMaker in Rechnung gestellt. Für die Nutzung von Amazon SageMaker JumpStart fallen keine zusätzlichen Gebühren an.

F: Was ist Amazon SageMaker Canvas?

Amazon SageMaker Canvas ist ein No-Code-Service mit einer intuitiven, visuellen Point-and-Click-Oberfläche, mit der Sie auf einfache Weise hochpräzise, auf ML basierende Vorhersagen aus Ihren Daten erstellen können. SageMaker Canvas ermöglicht Ihnen den Zugriff auf und das Kombinieren von Daten aus einer Vielzahl von Quellen über eine Drag-and-Drop-Benutzeroberfläche, bereinigt und bereitet Daten automatisch auf, um die manuelle Bereinigung zu minimieren, wendet eine Vielzahl modernster Algorithmen für ML an, um hochpräzise Vorhersagemodelle zu finden, und bietet eine intuitive Benutzeroberfläche, um Vorhersagen zu treffen. Sie können SageMaker Canvas verwenden, um in einer Vielzahl von Geschäftsanwendungen viel genauere Vorhersagen zu treffen und einfach mit Datenwissenschaftlern und Analysten in Ihrem Unternehmen zusammenzuarbeiten, indem Sie Ihre Modelle, Daten und Berichte teilen. Um weitere Informationen über SageMaker Canvas zu erhalten, besuchen Sie bitte die Seite zu häufig gestellten Fragen zu Canvas.

Machine-Learning-Workflows

F: Wie kann ich eine Continuous Integration and Delivery (CI/CD)-Pipeline mit Amazon SageMaker erstellen?

Amazon SageMaker Pipelines unterstützt Sie bei der Erstellung vollautomatischer ML-Workflows von der Datenvorbereitung bis zur Modellbereitstellung. Auf diese Weise können Sie Tausende von ML-Modellen in der Produktion bereitstellen. SageMaker Pipelines wird mit einem Python-SDK bereitgestellt, das eine Verbindung zu SageMaker Studio herstellt, so dass Sie die Vorteile einer visuellen Schnittstelle nutzen können, um jeden Schritt des Workflows zu erstellen. Anschließend können Sie mithilfe einer einzelnen API jeden Schritt verbinden, um einen End-to-End-Workflow zu erstellen. SageMaker Pipelines kümmert sich um die Verwaltung der Daten zwischen den Schritten, das Packen der Code-Rezepte und die Orchestrierung ihrer Ausführung, wodurch die monatelange Codierung auf einige Stunden reduziert wird. Jedes Mal, wenn ein Workflow ausgeführt wird, wird eine vollständige Aufzeichnung der verarbeiteten Daten und der ergriffenen Maßnahmen geführt, damit Datenwissenschaftler und ML-Entwickler Probleme schnell beheben können.

F: Wie kann ich alle meine trainierten Modelle anzeigen, um das beste Modell für die Produktion auszuwählen?

Amazon SageMaker Pipelines bietet ein zentrales Repository für trainierte Modelle, die als Modellregistrierung bezeichnet wird. Sie können Modelle erkennen und visuell über SageMaker Studio oder programmgesteuert über das Python SDK auf die Modellregistrierung zugreifen. So können Sie ganz einfach das gewünschte Modell für die Bereitstellung in der Produktion auswählen.

F: Welche Komponenten von Amazon SageMaker können zu Amazon-SageMaker-Pipelines hinzugefügt werden?

Die in Amazon SageMaker Studio verfügbaren Komponenten, darunter auch SageMaker Clarify, SageMaker Data Wrangler, SageMaker Feature Store, SageMaker Experiments, SageMaker Debugger und SageMaker Model Monitor, können zu SageMaker Pipelines hinzugefügt werden.

F: Wie verfolge ich meine Modellkomponenten über den gesamten ML-Workflow?

Amazon SageMaker Pipelines verfolgt automatisch alle Modellbestandteile und führt einen Prüfpfad über alle Änderungen, wodurch die manuelle Nachverfolgung entfällt und Sie beim Erreichen von Compliance-Zielen helfen können. Mit SageMaker Pipelines können Sie Daten, Code, trainierte Modelle und mehr verfolgen.

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Pipelines?

Für die Nutzung von Amazon SageMaker Pipelines fallen keine zusätzlichen Gebühren an. Sie zahlen nur für das zugrunde liegende Computing oder sonstige separate AWS-Services, die Sie in SageMaker Pipelines verwenden.

F: Kann ich Kubeflow mit Amazon SageMaker verwenden?

Ja. Amazon SageMaker Components for Kubeflow Pipelines sind Open-Source-Plugins, die es Ihnen ermöglichen, Kubeflow Pipelines zum Definieren Ihrer ML-Workflows und SageMaker für Datenkennzeichnung, Training und Inferenzschritte zu verwenden. Kubeflow Pipelines ist ein Add-on für Kubeflow, mit dem Sie portierbare und skalierbare durchgängige ML-Pipelines entwickeln und bereitstellen können. Allerdings müssen ML-Betriebsteams beim Verwenden von Kubeflow Pipelines einen Kubernetes-Cluster mit CPU- und GPU-Instances verwalten und stets für eine hohe Auslastung sorgen, um Betriebskosten zu senken. Das Maximieren der Auslastung eines Clusters für mehrere Daten-Wissenschaftsteams ist schwierig und sorgt bei den ML-Betriebsteams für einen zusätzlichen betrieblichen Aufwand. Als Alternative für einen ML-optimierten Kubernetes-Cluster können Sie mit Amazon SageMaker Components for Kubeflow Pipelines leistungsstarke SageMaker-Funktionen nutzen, wie Datenkennzeichnung, vollständig verwaltete, umfangreiche Hyperparameter-Optimierung, verteilte Trainingsaufgaben, sichere und skalierbare Modellbereitstellung mit nur einem Klick sowie kostengünstiges Training durch Amazon-EC2-Spot-Instances, ohne dass Sie Kubernetes-Cluster speziell für die Ausführung der Machine-Learning-Aufgaben konfigurieren und verwalten müssen.

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker-Komponenten für Kubeflow-Pipelines?

Für die Nutzung von Amazon SageMaker Components for Kubeflow Pipelines fallen keine zusätzlichen Gebühren an. 

Vorbereiten der Daten

F: Wie kann Amazon SageMaker Daten für ML vorbereiten?

Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für die Zusammenführung und Vorbereitung von Daten für ML. Über eine einzige Schnittstelle in SageMaker Studio können Sie Daten aus Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation und Amazon SageMaker Feature Store importieren, und mit nur wenigen Klicks lädt, aggregiert und zeigt SageMaker Data Wrangler die Rohdaten automatisch an. Anschließend werden Konvertierungsempfehlungen basierend auf den Quelldaten abgegeben, die Daten in neue Funktionen umgewandelt, die Funktionen validiert und Visualisierungen mit Empfehlungen zum Entfernen häufiger Fehlerquellen wie falscher Beschriftungen bereitgestellt. Sobald Ihre Daten vorbereitet sind, können Sie mit Amazon SageMaker Pipelines vollautomatische Workflows für ML erstellen oder diese Daten in den Amazon SageMaker Feature Store importieren.

F: Wie kann ich mit Amazon SageMaker Data Wrangler Modellfunktionen erstellen?

Ohne eine einzige Codezeile zu schreiben, kann Amazon SageMaker Data Wrangler Ihre Daten automatisch in neue Funktionen umwandeln. SageMaker Data Wrangler bietet eine Auswahl vorkonfigurierter Datentransformationen, z. B. Spaltentyp konvertieren, One-Hot-Codierung, fehlende Daten mit Mittelwert oder Median unterstellen, Spalten neu skalieren und Daten-/Zeit-Einbettungen. Sie können beispielsweise eine Textfeldspalte mit einem einzigen Klick in eine numerische Spalte konvertieren oder benutzerdefinierte Transformationen in PySpark, SQL und Pandas erstellen.

F: Wie kann ich meine Daten in Amazon SageMaker Data Wrangler visualisieren?

Mit Amazon SageMaker Data Wrangler können Sie Ihre Daten besser verstehen und potenzielle Fehler und Extremwerte mithilfe einer Reihe robuster vorkonfigurierter Visualisierungsvorlagen identifizieren. Histogramme, Streudiagramme und ML-spezifische Visualisierungen wie die Erkennung von Ziellecks sind verfügbar, ohne dass eine einzige Codezeile geschrieben werden muss. Sie können auch eigene Visualisierungen erstellen und bearbeiten.

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Data Wrangler?

Sie zahlen für alle ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie für Amazon SageMaker Data Wrangler verwenden. Hier können Sie alle Details zu den Preisen von Amazon SageMaker Data Wrangler einsehen. Im Rahmen des kostenlosen Kontingents für AWS können Sie auch kostenlos mit SageMaker Data Wrangler beginnen.

F: Wie speichere ich Funktionen für meine ML-Modelle?

Amazon SageMaker Feature Store bietet ein zentrales Depot für Datenfunktionen mit geringer Latenz (Millisekunden) beim Lesen und Schreiben. Funktionen können über den SageMaker Feature Store gespeichert, abgerufen, entdeckt und gemeinsam genutzt werden, und können so mit sicherem Zugriff und Kontrolle modell- und teamübergreifend verwendet werden. Der SageMaker Feature Store unterstützt sowohl Online- als auch Offline-Funktionen, die über Batch- oder Streaming-Pipelines generiert werden. Es unterstützt das Funktion-Backfilling und bietet sowohl Online- als auch Offline-Speicher, um die Gleichheit zwischen den Funktionen des Modelltrainings und der Inferenz aufrechtzuerhalten.

F: Wie kann ich die Konsistenz zwischen Online- und Offline-Funktionen aufrechterhalten?

Der Amazon SageMaker Feature Store gewährleistet automatisch die Konsistenz zwischen Online- und Offline-Funktionen ohne zusätzliche Verwaltung oder Code. Der SageMaker Feature Store wird vollständig verwaltet und sorgt für Konsistenz in allen Trainings- und Inferenzumgebungen.

F: Wie kann ich eine Funktion von einem bestimmten Zeitpunkt an reproduzieren?

Der Amazon SageMaker Feature Store verwaltet zu jeder Zeit Zeitstempel für alle Funktionen. Auf diese Weise können Sie jederzeit Funktionen für geschäftliche oder Compliance-Anforderungen abrufen. Sie können Modellfunktionen und ihre Werte von der ersten Erstellung bis zur Gegenwart leicht erklären, indem Sie das Modell ab einem bestimmten Zeitpunkt reproduzieren.

F: Was sind Offline-Funktionen?

Offline-Funktionen werden für Schulungen verwendet, da Sie über einen langen Zeitraum Zugriff auf sehr große Volumes benötigen. Diese Funktionen werden von einem Repository mit hohem Durchsatz und hoher Bandbreite bereitgestellt.

F: Was sind Online-Funktionen?

Online-Funktionen werden in Anwendungen verwendet, die für Echtzeitprognosen erforderlich sind. Online-Funktionen werden aus einem Depot mit hohem Durchsatz und einer Latenzzeit im einstelligen Millisekundenbereich für schnelle Vorhersagen bereitgestellt.

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Feature Store?

Im Rahmen des kostenlosen Kontingents für AWS können Sie Amazon SageMaker Feature Store zum Einstieg kostenlos verwenden. Mit dem SageMaker Feature Store bezahlen Sie für das Schreiben in den Feature Store sowie für das Lesen und Speichern im Online Feature Store. Preisinformationen finden Sie auf der SageMaker-Seite mit der Preisübersicht.

F: Was bietet Amazon SageMaker für die Datenbeschriftung?

Amazon SageMaker bietet zwei Angebote zur Datenbeschriftung: Amazon SageMaker Ground Truth Plus und Amazon SageMaker Ground Truth. Mit beiden Optionen können Sie Rohdaten wie Bilder, Textdateien und Videos identifizieren und informative Beschriftungen hinzufügen, um hochwertige Trainings-Datensätze für Ihre ML-Modelle zu erstellen. Für weitere Informationen besuchen Sie die Webseite von SageMaker Data Labeling.

Entwickeln von Modellen

F: Was sind Amazon-SageMaker-Studio-Notebooks?

Notebooks von Amazon SageMaker Studio sind kollaborative, flexible, verwaltete Jupyter-Notebooks, die Teil von Amazon SageMaker Studio, einer vollständig integrierten Entwicklungsumgebung für ML, sind.

F: Inwiefern unterscheiden sich SageMaker-Studio-Notebooks von dem Angebot an Instance-basierten Notebooks?

SageMaker-Studio-Notebooks bieten einige wichtige Funktionen, die sie von den Instance-basierten Notebooks unterscheiden. Mit den Studio-Notebooks können Sie Notebooks schnell starten, ohne dass Sie eine Instance manuell bereitstellen und warten müssen, bis sie einsatzbereit ist. Die Startzeit für den Aufruf der Benutzeroberfläche zum Lesen und Ausführen eines Notebooks ist schneller als bei den Instance-basierten Notebooks.

Sie haben auch die Flexibilität, jederzeit aus einer großen Sammlung von Instance-Typen innerhalb der Benutzeroberfläche zu wählen. Es ist nicht nötig, über die AWS-Managementkonsole zu gehen, um neue Instances zu starten und Ihre Notebooks zu portieren.

Jeder Benutzer hat ein isoliertes Home-Verzeichnis, unabhängig von einer bestimmten Instance. Dieses Verzeichnis wird beim Start automatisch in alle Notebook-Server und Kernel gemountet, so dass Sie auf Ihre Notebooks und andere Dateien zugreifen können, auch wenn Sie die Instance wechseln, um Ihre Notebooks anzuzeigen und auszuführen.

SageMaker-Studio-Notebooks sind in AWS Single Sign-On (SSO) integriert, so dass es einfach ist, die organisatorischen Zugangsdaten für den Zugriff auf die Notebooks zu verwenden. Die gemeinsame Nutzung von Notebooks ist eine integrierte Funktion in SageMaker Studio Notebooks. Sie können Ihre Notebooks auch mit einem einzigen Klick für Ihre Kollegen freigeben.

F: Wie funktionieren Amazon-SageMaker-Studio-Notebooks?

Notebooks von Amazon SageMaker Studio sind Ein-Click-Jupyter-Notebooks, die sich schnell hochfahren lassen. Die zugrunde liegenden Rechenressourcen sind voll elastisch, sodass Sie die verfügbaren Ressourcen einfach nach oben oder unten wählen können und die Änderungen automatisch im Hintergrund stattfinden, ohne Ihre Arbeit zu unterbrechen. SageMaker ermöglicht auch die Freigabe von Notebooks mit einem Klick. Sie können Notebooks problemlos mit anderen teilen und diese erhalten genau dasselbe Notebook, das am selben Ort gespeichert ist.

Mit SageMaker-Studio-Notebooks können Sie sich mit Ihren Unternehmensdaten über AWS SSO anmelden. Die gemeinsame Nutzung von Notebooks innerhalb und zwischen Teams ist einfach, da die für den Betrieb eines Notebooks erforderlichen Abhängigkeiten automatisch in den Arbeits-Images verfolgt werden, die bei der gemeinsamen Nutzung des Notebooks mit diesem gekapselt werden.

F: Wie funktioniert die Zusammenarbeit von Amazon SageMaker Studio Notebooks mit anderen AWS-Services?

Amazon SageMaker Studio Notebooks gewährt Zugriff auf alle SageMaker-Funktionen, darunter verteiltes Training, Batch-Transformation, Hosting und Experimentverwaltung. Sie können aus SageMaker-Notebooks heraus auf andere Services wie Datensätze in Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR, oder AWS Lake Formation zugreifen.

F: Was ist die Preisstruktur von SageMaker-Studio-Notebooks?

Bei der Nutzung von SageMaker Studio Notebooks zahlen Sie für Rechnerleistung und Speicherkapazität. Siehe Preise zu Amazon SageMaker für die Gebühren nach Instance-Typ. Ihre Notebooks und einschlägige Artefakte wie Dateien und Skripte bleiben auf Amazon EFS erhalten. Unter Preise zu Amazon EFS finden Sie die Gebühren für Speicher. Im Rahmen des kostenlosen Kontingents für AWS können Sie Notebooks von Amazon SageMaker Studio zum Einstieg kostenlos verwenden.

F: Werden mir Notebooks, die in SageMaker Studio eingerichtet und betrieben werden, separat berechnet?

Nein. Sie können auf derselben Compute-Instance mehrere Notebooks einrichten und betreiben. Sie zahlen nur für genutzte Datenverarbeitung, nicht für einzelne Elemente. Weitere Informationen zu diesem Thema finden Sie unserem Leitfaden zur Messung.

Neben Notebooks können Sie in Studio zudem Terminals und interaktive Shells starten und betreiben – alles auf derselben Computing-Instance. Jede Anwendung läuft innerhalb eines Containers oder Images. SageMaker Studio stellt eine Reihe integrierter Images bereit, die gezielt und vorab konfiguriert für Datenwissenschaft und ML sind. Mehr über die Studio-Entwicklungsumgebung erfahren Sie im Leitfaden zur Verwendung zu SageMaker-Studio-Notebooks.

F: Wie überwache ich die von meinen Notebooks genutzten Ressourcen und fahre sie herunter?

Überwachung und Herunterfahren der Ressourcen, die von Ihren SageMaker-Studio-Notebooks genutzt werden, können über die visuelle Oberfläche von SageMaker Studio sowie die AWS-Managementkonsole erfolgen. Weitere Informationen finden Sie in der Dokumentation.

F: Ich führe ein SageMaker-Studio-Notebook aus. Fallen weiterhin Kosten an, wenn ich Browser oder Notebook-Tab schließe oder den Browser einfach offen lasse?

Ja. Sie werden weiterhin für die Datenverarbeitung belastet. Dies kann man mit dem Starten von Amazon-EC2-Instances in der AWS-Managementkonsole und dem anschließenden Schließen des Browsers vergleichen. Die Amazon-EC2-Instances laufen weiter und es fallen weiterhin Gebühren an, es sei denn, Sie schalten die Instance extra ab.

F: Fallen für das Erstellen und Einrichten einer Studio-Domäne Kosten an?

Nein. Für Einrichten oder Konfigurieren einer Studio-Domäne sowie Hinzufügen, Updaten und Löschen von Benutzerprofilen entstehen keine Gebühren.

F: Wie kann ich die einzelnen Gebührenposten für Studio-Notebooks oder sonstige SageMaker-Services einsehen?

Als Administrator finden Sie die Liste der einzelnen Gebührenposten für SageMaker, darunter derer für Studio, in der AWS-Fakturierungskonsole. Wählen Sie in der AWS-Managementkonsole für SageMaker im Menü oben Services aus, geben Sie im Suchfeld „billing“ (Fakturierung) ein und wählen Sie aus der Dropdown-Liste „Billing“ aus. Wählen Sie dann auf der linken Seite Bills (Rechnungen) aus. Im Details-Bereich können Sie auf SageMaker klicken, um die Liste der Regionen zu erweitern und einzelne Gebührenposten anzusehen.

F: Was ist Amazon SageMaker Studio Lab?

Amazon SageMaker Studio Lab ist eine kostenlose Entwicklungsumgebung für ML, die kostenlos Computing, Speicher (bis zu 15 GB) und Sicherheit bietet, damit jeder mit ML lernen und experimentieren kann. Alles, was Sie für den Anfang benötigen, ist eine gültige E-Mail-ID, Sie müssen keine Infrastruktur konfigurieren, Identität und Zugriff verwalten oder sich für ein AWS-Konto anmelden. SageMaker Studio Lab beschleunigt die Modellerstellung durch die GitHub-Integration und ist mit den beliebtesten ML-Tools, Frameworks und Bibliotheken vorkonfiguriert, damit Sie sofort loslegen können. SageMaker Studio Lab speichert Ihre Arbeit automatisch, sodass Sie zwischen den Sitzungen nicht neu starten müssen. Sie können einfach Ihren Laptop schließen und später wiederkommen.

F: Warum sollte ich Amazon SageMaker Studio Lab verwenden?

Amazon SageMaker Studio Lab richtet sich an Studenten/innen, Forscher und Datenwissenschaftler, die eine kostenlose Notebook-Entwicklungsumgebung ohne Einrichtung für ihre ML-Kurse und -Experimente benötigen. Amazon SageMaker Studio Lab eignet sich hervorragend für Benutzer, die keine Produktionsumgebung benötigen, aber dennoch eine Teilmenge der SageMaker-Funktionalität benötigen, um ihre ML-Fähigkeiten zu verbessern. SageMaker-Sitzungen werden automatisch gespeichert, sodass Benutzer bei jeder Benutzersitzung dort weitermachen können, wo sie aufgehört haben.

F: Wie arbeitet Amazon SageMaker Studio Lab mit anderen AWS-Services?

Amazon SageMaker Studio Lab ist ein auf AWS basierender Service und nutzt viele der gleichen Kernservices wie Amazon SageMaker Studio wie Amazon S3 und Amazon EC2. Im Gegensatz zu den anderen Services benötigen Kunden kein AWS-Konto. Stattdessen erstellen sie ein spezifisches Konto für Amazon SageMaker Studio Lab mit einer E-Mail-Adresse. Dadurch erhält der Benutzer Zugriff auf eine begrenzte Umgebung (15 GB Speicher und 12-Stunden-Sitzungen), damit er ML-Notebooks ausführen kann.

F: Was ist Amazon SageMaker Canvas?

Amazon SageMaker Canvas ist ein visueller Drag-and-Drop-Service, der es Geschäftsanalysten ermöglicht, ML-Modelle zu erstellen und genaue Vorhersagen zu generieren, ohne Code zu schreiben oder ML-Kenntnisse zu haben. SageMaker Canvas macht es einfach, auf Daten aus einer Vielzahl von Quellen zuzugreifen und sie zu kombinieren, Daten automatisch zu bereinigen und eine Vielzahl von Datenanpassungen anzuwenden und ML-Modelle zu erstellen, um mit einem einzigen Klick genaue Vorhersagen zu generieren. Sie können auch ganz einfach Ergebnisse veröffentlichen, Modelle erklären und interpretieren und Modelle zur Überprüfung mit anderen innerhalb Ihrer Organisation teilen.

F: Welche Datenquellen unterstützt Amazon SageMaker Canvas?

Mit SageMaker Canvas können Sie nahtlos AWS-Datenquellen entdecken, auf die Ihr Konto Zugriff hat, einschließlich Amazon S3 und Amazon Redshift. Sie können Daten mit der visuellen Drag-and-Drop-Oberfläche von SageMaker Canvas durchsuchen und importieren. Darüber hinaus können Sie Dateien per Drag-and-Drop von Ihrer lokalen Festplatte ziehen und vorgefertigte Konnektoren verwenden, um Daten aus Drittanbieterquellen wie Snowflake zu importieren.

F: Wie erstelle ich ein ML-Modell, um genaue Vorhersagen zu generieren?

Nachdem Sie Quellen verbunden, einen Datensatz ausgewählt und Ihre Daten vorbereitet haben, können Sie die Zielspalte auswählen, die Sie vorhersagen möchten, um einen Modellerstellungsauftrag einzuleiten. Amazon SageMaker Canvas identifiziert automatisch den Problemtyp, generiert neue relevante Funktionen, testet einen umfassenden Satz von Vorhersagemodellen mit ML-Techniken wie lineare
Regression, logistische Regression, Deep Learning, Zeitreihenvorhersage und ansteigende Verstärkung und erstellt das Modell, das genaue Vorhersagen basierend auf Ihrem Datensatz macht.

F: Wie lange dauert es, ein Modell zu erstellen? Wie kann ich den Fortschritt während der Modellerstellung überwachen?

Die Zeit, die zum Erstellen eines Modells benötigt wird, hängt von der Größe Ihres Datensatzes ab. Kleine Datensätze können weniger als 30 Minuten dauern, und große Datensätze können einige Stunden dauern. Während der Modellerstellungsauftrag fortschreitet, bietet Amazon SageMaker Canvas detaillierte visuelle Aktualisierungen, einschließlich des Prozentsatzes des Auftragsabschlusses und der verbleibenden Zeit für den Auftragsabschluss.

Trainieren von Modellen

F: Was sind Amazon-SageMaker-Experimente?

Mit Amazon-SageMaker-Experimenten können Sie Iterationen von Modellen für ML organisieren und nachverfolgen. Mit SageMaker-Experimenten können Sie Iterationen verwalten, indem Sie die Eingabeparameter, Konfigurationen und Ergebnisse automatisch erfassen und als „Experimente“ speichern. Sie können in der visuellen Oberfläche von SageMaker Studio arbeiten, in der Sie aktive Experimente durchsuchen, nach früheren Experimenten anhand ihrer Eigenschaften suchen, frühere Experimente mit ihren Ergebnissen überprüfen und die Testergebnisse visuell vergleichen können.

F: Was ist Amazon SageMaker Debugger?

Amazon SageMaker Debugger erfasst während des Trainings automatisch Metriken in Echtzeit, z. B. Konfusionsmatrizen und Lerngradienten, um die Modellgenauigkeit zu verbessern. Die Metriken von SageMaker Debugger können zum besseren Verständnis in SageMaker Studio visualisiert werden. SageMaker Debugger kann auch Warnungen und Fehlerbehebungshinweise generieren, wenn allgemeine Schulungsprobleme festgestellt werden. SageMaker Debugger überwacht und profiliert außerdem automatisch Systemressourcen wie CPUs, GPUs, Netzwerk und Speicher in Echtzeit und gibt Empfehlungen zur Neuzuweisung dieser Ressourcen. Auf diese Weise können Sie Ihre Ressourcen während des Trainings effizient nutzen und Kosten und Ressourcen reduzieren.

F: Wird verteiltes Training von Amazon SageMaker unterstützt?

Ja. Amazon SageMaker kann Deep-Learning-Modelle und große Trainingssätze in einem Bruchteil der Zeit, die zum manuellen Erstellen und Optimieren dieser Verteilungsstrategien erforderlich ist, automatisch auf AWS GPU-Instances verteilen. Die beiden verteilten Trainingstechniken, die SageMaker anwendet, sind Datenparallelität und Modellparallelität. Datenparallelität wird angewendet, um die Trainingsgeschwindigkeit zu verbessern, indem die Daten gleichmäßig auf mehrere GPU-Instances verteilt werden, sodass jede Instance gleichzeitig trainieren kann. Modellparallelität ist nützlich für Modelle, die zu groß sind, um auf einer einzelnen GPU gespeichert zu werden, und erfordert, dass das Modell in kleinere Teile aufgeteilt wird, bevor es auf mehrere GPUs verteilt wird. Mit nur wenigen Zeilen zusätzlichen Codes in Ihren PyTorch- und TensorFlow-Schulungsskripten wendet SageMaker automatisch Datenparallelität oder Modellparallelität für Sie an, sodass Sie Ihre Modelle schneller entwickeln und bereitstellen können. SageMaker bestimmt den besten Ansatz für die Aufteilung Ihres Modells, indem es Algorithmen zur Graphenpartitionierung verwendet, um die Berechnungen der einzelnen GPUs auszugleichen und gleichzeitig die Kommunikation zwischen den GPU-Anwendung zu minimieren. SageMaker optimiert Ihre verteilten Trainingsaufträge auch durch Algorithmen, die die AWS-Datenverarbeitung und das AWS-Netzwerk vollständig nutzen, um eine nahezu lineare Skalierungseffizienz zu erzielen, mit der Sie Schulungen schneller abschließen können als manuelle Open-Source-Implementierungen.

F: Was ist der SageMaker Training Compiler?

Amazon SageMaker Training Compiler ist ein Deep-Learning-Compiler (DL), der das DL-Modelltraining durch Optimierungen auf Diagramm- und Kernel-Ebene um bis zu 50 Prozent beschleunigt, um GPUs effizienter zu nutzen. Der Training Compiler ist in die Versionen von TensorFlow und PyTorch in SageMaker integriert, sodass Sie das Training in diesen beliebten Frameworks mit minimalen Codeänderungen beschleunigen können.

F: Wie funktioniert der SageMaker Training Compiler?

Der SageMaker Training Compiler beschleunigt Trainingsaufträge, indem er DL-Modelle von ihrer Hochsprachendarstellung in hardwareoptimierte Anweisungen umwandelt, die schneller trainieren als Aufträge mit den nativen Frameworks. Genauer gesagt verwendet der SageMaker Training Compiler Optimierungen auf Grafikebene (Operatorfusion, Speicherplanung und algebraische Vereinfachung), Optimierungen auf Datenflussebene (Layout-Transformation, Eliminierung allgemeiner Unterausdrücke) und Backend-Optimierungen (Speicherlatenzverstecken, schleifenorientierte Optimierungen), um einen optimierten Modelltrainingsauftrag zu erstellen, der Hardwareressourcen effizienter nutzt und dadurch schneller trainiert.

F: Wie kann ich den SageMaker Training Compiler verwenden?

Der Amazon SageMaker Training Compiler ist in das SageMaker Python SDK und die SageMaker Hugging Face Deep Learning Container integriert. Sie müssen Ihre Workflows nicht ändern, um auf die Beschleunigungsvorteile zuzugreifen. Sie können Trainingsaufträge auf die gleiche Weise ausführen, wie Sie es bereits tun, indem Sie jede der SageMaker-Schnittstellen verwenden: Amazon-SageMaker-Notebook-Instances, SageMaker Studio, AWS SDK for Python (Boto3) und AWS Command Line Interface. Sie können den SageMaker Training Compiler aktivieren, indem Sie beim Erstellen eines Framework-Schätzungsobjekts eine TrainingCompilerConfig-Klasse als Parameter hinzufügen. In der Praxis bedeutet dies, dass ein paar Codezeilen zu einem bestehenden Trainingsauftrags-Skript für eine einzelne GPU-Instance hinzugefügt werden. Die aktuellste ausführliche Dokumentation, Beispiel-Notebooks und Beispiele finden Sie in der Dokumentation.

F: Wie hoch sind die Preise für den SageMaker Training Compiler?

Der Training Compiler ist eine SageMaker-Trainingsfunktion und wird ausschließlich SageMaker-Kunden kostenlos zur Verfügung gestellt. Kunden können mit Training Compiler tatsächlich ihre Kosten senken, da sich die Trainingszeiten reduzieren.

F: Was ist Managed Spot Training?

Mit Managed Spot Training mit Amazon SageMaker können Sie Ihre ML-Modelle mithilfe von Amazon-EC2-Spot-Instances trainieren und gleichzeitig die Trainingskosten für Ihre Modelle um bis zu 90 % senken.

F: Wie verwende ich Managed Spot Training?

Sie aktivieren die Option Managed Spot Training, wenn Sie Ihre Trainingsaufträge einreichen, und Sie geben auch an, wie lange Sie auf Spot-Kapazität warten möchten. Amazon SageMaker verwendet dann Amazon-EC2-Spot-Instances, um Ihre Aufgabe auszuführen und die Spot-Kapazität zu verwalten. Sie haben vollen Einblick in den Status Ihres Trainingsauftrags, sowohl während sie laufen als auch während sie auf Kapazität warten.

F: Wann sollte ich Managed Spot Training verwenden?

Managed Spot Training ist ideal, wenn Sie Flexibilität bei Ihren Trainingsläufen haben und wenn Sie die Kosten Ihrer Trainingsaufträge minimieren möchten. Mit Managed Spot Training können Sie die Kosten für das Training Ihrer ML-Modelle um bis zu 90 % zu senken.

F: Wie funktioniert Managed Spot Training?

Managed Spot Training verwendet Amazon EC2 Spot-Instances für Trainings und diese Instances können vorweggenommen werden, wenn AWS Kapazität benötigt. Daher können Managed Spot Trainings-Aufträge in kleinen Schritten ausgeführt werden, sobald die Kapazität verfügbar wird. Die Trainingsaufträge müssen nicht von Grund auf neu gestartet werden, wenn es zu einer Unterbrechung kommt, da Amazon SageMaker die Trainingsaufträge mit dem neuesten Modell-Checkpoint wieder aufnehmen kann. Die integrierten Rahmenbedingungen und die integrierten Computer-Vision-Algorithmen mit SageMaker ermöglichen regelmäßige Checkpoints, und Sie können Checkpoints mit benutzerdefinierten Modellen aktivieren.

F: Muss ich das Managed Spot Training regelmäßig überprüfen?

Wir empfehlen regelmäßige Checkpoints als allgemein bewährtes Verfahren für lange laufende Trainingsaufträge. Dadurch wird verhindert, dass Ihre Managed-Spot-Trainings-Aufträge neu gestartet werden, wenn die Kapazität vorweggenommen wird. Wenn Sie Checkpoints aktivieren, setzt Amazon SageMaker Ihre Managed Spot Trainings-Aufträge vom letzten Checkpoint aus fort.

F: Wie berechnen Sie die Kosteneinsparungen mit Managed-Spot-Trainings-Aufträgen?

Sobald ein Managed-Spot-Training-Auftrag abgeschlossen ist, können Sie die Einsparungen in der AWS-Managementkonsole sehen und auch die Kosteneinsparungen als prozentuale Differenz zwischen der Dauer, für die der Trainingsauftrag ausgeführt wurde, und der Dauer, die Ihnen in Rechnung gestellt wurde, berechnen.

Unabhängig davon, wie oft Ihre Managed-Spot-Training-Aufträge unterbrochen werden, werden Sie nur einmal für die Dauer belastet, für die die Daten heruntergeladen wurden.

F: Welche Instances kann ich mit Managed Spot Training verwenden?

Managed Spot Training kann mit allen Instances verwendet werden, die in Amazon SageMaker unterstützt werden.

F: Welche AWS-Regionen werden mit Managed Spot Training unterstützt?

Managed Spot Training wird in allen AWS-Regionen unterstützt, in denen Amazon SageMaker derzeit verfügbar ist.

F: Gibt es Grenzen für die Größe der Datenmenge, die ich für das Training verwenden kann?

Es gibt keine festen Grenzen für die Größe der Datasets, die Sie für Schulungsmodelle mit Amazon SageMaker verwenden können.

F: Mit welchen Algorithmen generiert Amazon SageMaker Modelle?

Amazon SageMaker umfasst integrierte Algorithmen für lineare Regression, logistische Regression, K-Means-Clustering, Hauptkomponentenanalyse, Faktorisierungsmaschinen, Modellierung neuronaler Themen, latente Dirichlet-Zuordnung, Gradient-Boosted-Trees, Sequence2Sequence, Zeitreihenprognose, Word2vec und Bildklassifizierung. SageMaker bietet außerdem optimierte Apache MXNet-, Tensorflow-, Chainer-, PyTorch-, Gluon-, Keras-, Horovod-, Scikit-learn- und Deep Graph Library-Container. Darüber hinaus unterstützt Amazon SageMaker Ihre benutzerdefinierten Trainingsalgorithmen, die über ein Docker-Image bereitgestellt werden, das der dokumentierten Spezifikation entspricht.

F: Was ist automatische Modelloptimierung?

Die meisten Algorithmen für ML machen verschiedene Parameter verfügbar, die wie der zugrunde liegende Algorithmus funktioniert. Diese Parameter werden meist als „Hyperparameter“ bezeichnet. Von ihren Werten hängt ab, wie gut die trainierten Modelle sind. Bei der automatischen Modelloptimierung wird nach Hyperparametern eines Algorithmus gesucht, die ein optimales Modell erzeugen können.

F: Welche Modelle können mit der automatischen Modelloptimierung abgestimmt werden?

Sie können die automatische Modelloptimierung in Amazon SageMaker zusätzlich zu Algorithmen ausführen lassen. Voraussetzung ist, dass die Modelloptimierung wissenschaftlich realisierbar ist Amazon SageMaker. Zu den in Frage kommenden Algorithmen gehören beispielsweise integrierte SageMaker-Algorithmen, tief reichende neuronale Netzwerke oder jeder Algorithmus, den Sie als Docker-Image in SageMaker einführen.

F: Kann ich die automatische Modelloptimierung außerhalb von Amazon SageMaker anwenden?

Nein, derzeit nicht. Die beste Modelloptimierung genießen Sie mit Amazon SageMaker.

F: Was ist der zugrunde liegende Optimierungsalgorithmus?

Derzeit verwenden wir als Algorithmus für die Optimierung von Hyperparametern eine benutzerdefinierte Implementierung der bayes'schen Optimierungsmethodik. Diese zielt darauf ab, eine vom Kunden festgelegte Zielmetrik über den gesamten Optimierungsprozess zu optimieren. Die Implementierung prüft insbesondere die Zielmetrik der abgeschlossenen Trainingsaufträgen und leitet aus den gewonnenen Informationen die Hyperparameterkombination für den nächsten Trainingsauftrag ab.

F: Werden konkrete Hyperparameter für die Optimierung empfohlen?

Nein. Wie sich bestimmte Hyperparameter auf die Leistung des Modells auswirken, hängt von verschiedenen Faktoren ab. Es ist lässt sich kaum abschließend vorhersagen, ob ein Hyperparameter wichtiger ist als der andere und deshalb angepasst werden muss. Wenn in Amazon SageMaker Algorithmen integriert sind, geben wir an, ob ein Hyperparameter angepasst werden kann.

F: Wie lange dauert es, bis die Optimierung eines Hyperparameters abgeschlossen ist?

Wie lange eine Hyperparameteroptimierung dauert, hängt von verschiedenen Faktoren ab. So ist beispielsweise zu berücksichtigen, wie groß der Datenbestand ist, welcher Algorithmus zugrunde liegt und welche Werte die Hyperparameter aufweisen. Darüber hinaus können Kunden angeben, wie viele Trainings gleichzeitig laufen sollen und wie viele Trainings insgesamt durchgeführt werden sollen. All diese Entscheidungen wirken sich auf die Dauer der Hyperparameteroptimierung aus.

F: Kann ich mehrere Ziele gleichzeitig optimieren, sodass ein Modell schnell und zugleich präzise ist?

Nein, derzeit nicht. Derzeit müssen Sie eine einzelne Zielmetrik vorgeben, wenn Sie Ihren Algorithmuscode so optimieren oder abändern möchten, dass er eine neue Metrik (ein gewichteter Durchschnitt aus zwei oder mehreren nützlichen Kennzahlen) ausgibt und dass die Optimierung auf diese Zielmetrik optimal ausgerichtet wird.

F: Was hoch sind die Kosten für die automatische Modelloptimierung?

Für die eigentliche Hyperparameteroptimierung wird nichts berechnet. Kostenpflichtig sind jedoch die Trainings, die von der Hyperparameteroptimierung ausgelöst werden. Hierbei ist die Preise zum Modelltraining ausschlaggebend.

F: Auf welcher Grundlage entscheide ich, ob Amazon SageMaker Autopilot oder die automatische Modelloptimierung zu verwenden ist?

Amazon SageMaker Autopilot automatisiert jeden Schritt in einem typischen ML-Workflow, einschließlich der Funktionsvorverarbeitung, der Algorithmusauswahl und der Hyperparameter-Optimierung. Der besondere Fokus liegt hier auf Anwendungsfällen in den Bereichen Klassifizierung und Regression. Die automatische Modelloptimierung auf der anderen Seite wurde für die Optimierung beliebiger Modelle konzipiert. Dabei ist es unerheblich, ob es auf integrierten Algorithmen, Deep Learning-Frameworks oder benutzerdefinierten Containern basiert. Im Austausch für die Flexibilität müssen Sie den jeweiligen Algorithmus manuell auswählen und die zu optimierenden Hyperparameter and die entsprechenden Suchbereiche bestimmen.

F: Was ist bestärkendes Lernen?

Bestärkendes Lernen ist eine Technik des ML, mit der ein Agent in einer interaktiven Umgebung durch Versuch und Irrtum lernen kann. Dabei fließt auch Feedback von seinen eigenen Aktionen und Erfahrungen ein.

F: Kann ich Modelle für das bestärkende Lernen in Amazon SageMaker trainieren?

Ja, Sie können Modelle für das verstärkende Lernen zusätzlich zu den Modellen für das überwachte und nicht überwachte Lernen in Amazon SageMaker trainieren.

F: Inwiefern unterscheidet sich das bestärkende Lernen vom Supervised Learning?

Beim Supervised Learning und beim bestärkenden Lernen wird die Zuweisung zwischen Eingabe und Ausgabe verwendet. Beim Supervised Learning besteht das Feedback, das ein Agent erhält, aber aus einem korrekten Satz an Aktionen für das Ausführen einer Aufgabe. Das bestärkende Lernen verwendet dagegen ein verzögertes Feedback, bei dem Belohnungssignale optimiert werden, um ein langfristiges Ziel durch eine Folge von Aktionen zu gewährleisten.

F: Wann sollte ich das bestärkende Lernen verwenden?

Beim überwachten Lernen besteht das Ziel darin, basierend auf Mustern in den Trainingsdaten die richtige Antwort zu ermitteln. Beim nicht überwachten Lernen gilt es, Ähnlichkeiten und Unterschiede zwischen Datenpunkten zu finden. Im Gegensatz dazu besteht das Ziel des Reinforcement Learnings (RL) darin, zu lernen, wie ein gewünschtes Ergebnis erreicht werden kann, auch wenn es noch nicht klar ist. Daher ist das bestärkende Lernen besser für die Unterstützung intelligenter Anwendungen geeignet, bei denen ein Agent autonome Entscheidungen treffen kann, z. B. bei Robotern, autonomen Fahrzeugen, HLK-Systemen, industriellen Steuerungen usw.

F: Welche Arten von Umgebungen kann ich für das Trainieren von RL-Modellen verwenden?

Amazon SageMaker RL unterstützt eine Reihe von Umgebungen für das Trainieren von RL-Modellen. Sie können AWS-Services wie AWS RoboMaker, Open-Source-Umgebungen, benutzerdefinierte und mit Open-AI-Gym-Schnittstellen entwickelte Umgebungen und kommerzielle Simulationsumgebungen wie MATLAB und SimuLink verwenden.

F: Muss ich selbst RL-Agenten-Algorithmen schreiben, um RL-Modelle zu trainieren?

Nein. Amazon SageMaker RL umfasst Toolkits für das bestärkende Lernen wie Coach und Ray RLLib, die Implementierungen von RL-Agenten-Algorithmen wie DQN, PPO, A3C usw. bieten.

F: Kann ich meine eigenen RL-Bibliotheken und Algorithmusimplementierungen in Amazon SageMaker RL ausführen?

Ja. Sie können Ihre eigenen Bibliotheken für das bestärkende Lernen und Algorithmus-Implementierungen in Docker-Containern einbringen und sie in Amazon SageMaker RL ausführen.

F: Sind verteilte Rollouts mit Amazon SageMaker RL möglich?

Ja. Sie können sogar ein heterogenes Cluster auswählen, bei dem das Training auf einer GPU-Instance und die Simulationen auf mehreren CPU-Instances ausgeführt werden können.

Bereitstellen von Modellen

F: Welche Bereitstellungsoptionen bietet Amazon SageMaker?

Nachdem Sie Modelle erstellt und trainiert haben, bietet Amazon SageMaker drei Optionen zur Bereitstellung, damit Sie mit der Erstellung von Prognosen beginnen können. Die Echtzeit-Inferenz eignet sich für Workloads mit Latenzanforderungen im Millisekundenbereich, Nutzlastgrößen bis zu 6 MB und Verarbeitungszeiten von bis zu 60 Sekunden. Die Batch-Transformation eignet sich hervorragend für Offline-Vorhersagen für große Datenmengen, die im Voraus verfügbar sind. Die asynchrone Inferenz wurde für Workloads entwickelt, die keine Latenzzeiten von weniger als einer Sekunde, Nutzlastgrößen von bis zu 1 GB und Verarbeitungszeiten von bis zu 15 Minuten erfordern. 

F: Was ist SageMaker Asynchronous Inference?

Amazon SageMaker Asynchronous Inference stellt eingehende Anforderungen in eine Warteschlange und verarbeitet sie asynchron. Diese Option ist ideal für Anfragen mit großen Nutzdaten und/oder langen Bearbeitungszeiten, die bei ihrem Eintreffen bearbeitet werden müssen. Optional können Sie die Einstellungen für die automatische Skalierung so konfigurieren, dass die Anzahl der Instances auf Null gesenkt wird, wenn keine aktiven Anfragen bearbeitet werden, um Kosten zu senken. 

F: Wie kann ich die Einstellungen für die automatische Skalierung so konfigurieren, dass die Anzahl der Instances auf Null gesenkt wird, wenn keine aktiven Anfragen bearbeitet werden?

Sie können die Anzahl der Endpunkt-Instances von Amazon SageMaker Asynchronous Inference auf Null reduzieren, um Kosten zu senken, wenn Sie nicht aktiv Anfragen verarbeiten. Sie müssen eine Skalierungsrichtlinie definieren, die nach der benutzerdefinierten Metrik „ApproximateBacklogPerInstance“ skaliert und den Wert „MinCapacity“ auf Null setzt. Eine schrittweise Anleitung finden Sie im Abschnitt Automatische Skalierung eines asynchronen Endpunkts im Entwicklerhandbuch. 

F: Was ist Amazon SageMaker Serverless Inference?

Amazon SageMaker Serverless Inference ist eine speziell entwickelte Serverless-Modellbereitstellungsoption, die die Bereitstellung und Skalierung von ML-Modellen vereinfacht. SageMaker-Serverless-Inference-Endpunkte starten automatisch die Computingressourcen und skalieren sie je nach Datenverkehr ein und aus, sodass Sie nicht mehr den Instance-Typ auswählen, bereitgestellte Kapazität ausführen oder die Skalierung verwalten müssen. Sie können optional die Speicheranforderungen für Ihren Serverless-Inference-Endpunkt angeben. Sie zahlen nur für die Laufzeit des Inferenzcodes und die verarbeitete Datenmenge, nicht für Leerlaufzeiten.

F: Warum sollte ich Amazon SageMaker Serverless Inference verwenden?

Amazon SageMaker Serverless Inference vereinfacht die Entwicklererfahrung, indem es die Notwendigkeit beseitigt, im Voraus Kapazitäten bereitzustellen und Skalierungsrichtlinien zu verwalten. SageMaker Serverless Inference kann basierend auf den Nutzungsmustern innerhalb von Sekunden von zehn auf Tausende von Inferenzen skaliert werden, was es ideal für ML-Anwendungen mit intermittierendem oder unvorhersehbarem Datenverkehr macht. Ein Chatbot-Service, der von einem Gehaltsabrechnungsunternehmen genutzt wird, verzeichnet zum Beispiel am Monatsende einen Anstieg der Anfragen, während der restliche Monat von unregelmäßigem Datenverkehr geprägt ist. Die Bereitstellung von Instances für den gesamten Monat ist in solchen Szenarien nicht kosteneffizient, da Sie am Ende für Leerlaufzeiten bezahlen. SageMaker Serverless Inference hilft bei der Bewältigung dieser Art von Anwendungsfällen, indem es Ihnen sofort eine automatische und schnelle Skalierung bereitstellt, ohne dass Sie den Datenverkehr im Voraus vorhersagen oder Skalierungsrichtlinien verwalten müssen. Darüber hinaus zahlen Sie nur für die Computingzeit für die Ausführung Ihres Inferenzcodes (in Millisekunden abgerechnet) und für die Datenverarbeitung, was ihn zu einer kostengünstigen Option für Workloads mit intermittierendem Datenverkehr macht.

F: Was ist Amazon SageMaker Inference Recommender?

Amazon SageMaker Inference Recommender ist eine neue Funktion von Amazon SageMaker, die die Zeit verkürzt, die erforderlich ist, um ML-Modelle in die Produktion zu bringen, indem das Leistungs-Benchmarking automatisiert und die Modellleistung in allen SageMaker-ML-Instances optimiert wird. Sie können jetzt den SageMaker Inference Recommender verwenden, um Ihr Modell an einem Endpunkt bereitzustellen, der die beste Leistung bietet und die Kosten minimiert. Sie können in wenigen Minuten erste Schritte mit dem SageMaker Inference Recommender machen, während Sie einen Instance-Typ auswählen, und Sie erhalten innerhalb von Stunden Empfehlungen für optimale Endpunktkonfigurationen, wodurch wochenlange manuelle Tests und Abstimmungszeiten entfallen. Mit SageMaker Inference Recommender zahlen Sie nur für die SageMaker-ML-Instances, die während des Ladetests verwendet werden und es fallen keine zusätzlichen Gebühren an.

F: Warum sollte ich den SageMaker Inference Recommender verwenden?

Sie sollten SageMaker Inference Recommender verwenden, wenn Sie Empfehlungen für die richtige Endpunktkonfiguration benötigen, um die Leistung zu verbessern und Kosten zu senken. Bisher mussten Datenwissenschaftler, die ihre Modelle bereitstellen wollten, manuelle Benchmarks durchführen, um die richtige Endpunktkonfiguration auszuwählen. Sie mussten zunächst den richtigen ML-Instance-Typ aus den über 70 verfügbaren Instance-Typen basierend auf den Ressourcenanforderungen ihrer Modelle und den Beispielnutzlasten auswählen und dann das Modell optimieren, um unterschiedliche Hardware zu berücksichtigen. Anschließend mussten umfangreiche Lasttests durchgeführt werden, um zu überprüfen, ob die Anforderungen an Latenz und Durchsatz erfüllt und die Kosten gering sind. Der SageMaker Inference Recommender eliminiert diese Komplexität, indem er es Ihnen leicht macht: 1) in wenigen Minuten mit einer Instance-Empfehlung zu beginnen; 2) Lasttests für alle Instance-Typen durchzuführen, um innerhalb von Stunden Empfehlungen für Ihre Endpunktkonfiguration zu erhalten; und 3) für automatisches Abstimmen von Container- und Modellserverparametern sowie das Durchführen von Modelloptimierungen für einen gegebenen Instance-Typ.

F: Wie funktioniert SageMaker Inference Recommender mit anderen AWS-Services?

Datenwissenschaftler können über SageMaker Studio, AWS SDK für Python (Boto3) oder AWS CLI auf SageMaker Inference Recommender zugreifen. Sie können Bereitstellungsempfehlungen in SageMaker Studio in der SageMaker-Modellregistrierung für registrierte Modellversionen abrufen. Datenwissenschaftler können die Empfehlungen entweder durch SageMaker Studio, AWS SDK oder AWS CLI suchen und filtern.

F: Kann der SageMaker Inference Recommender Endpunkte mit mehreren Modellen oder Endpunkte mit mehreren Containern unterstützen?

Nein, wir unterstützen derzeit nur ein einziges Modell pro Endpunkt.

F: Welche Art von Endpunkten unterstützt der SageMaker Inference Recommender?

Derzeit unterstützen wir nur Echtzeit-Endpunkte.

F: Kann ich SageMaker Inference Recommender in einer Region verwenden und Benchmarks in verschiedenen Regionen machen?

Beim Start werden wir alle von SageMaker unterstützten Regionen mit Ausnahme der AWS-China-Regionen unterstützen.

F: Unterstützt SageMaker Inference Recommender Amazon-EC2-Inf1-Instances?

Ja, wir unterstützen alle Arten von Containern. Amazon EC2 Inf1, basierend auf dem AWS-Inferentia-Chip, erfordert ein kompiliertes Modellartefakt, das entweder den Neuron-Compiler oder SageMaker Neo verwendet. Sobald Sie über ein kompiliertes Modell für ein Inferentia-Ziel und den zugehörigen Container-Image-URI verfügen, können Sie SageMaker Inference Recommender verwenden, um verschiedene Inferentia-Instance-Typen zu vergleichen.


F: Was ist Amazon SageMaker Model Monitor?

Mit Amazon SageMaker Model Monitor können Entwickler Konzeptabweichungen erkennen und beheben. SageMaker Model Monitor erkennt automatisch Konzeptabweichungen in implementierten Modellen und bietet detaillierte Warnungen, mit denen die Ursache des Problems ermittelt werden kann. Alle in SageMaker geschulten Modelle geben automatisch wichtige Messdaten aus, die in SageMaker Studio erfasst und angezeigt werden können. In SageMaker Studio können Sie konfigurieren, welche Daten erfasst werden sollen, wie diese angezeigt werden und wann Warnungen empfangen werden sollen.

F: Kann ich auf die Infrastruktur zugreifen, auf der Amazon SageMaker ausgeführt wird?

Nein. Amazon SageMaker betreibt die Datenverarbeitungs-Infrastruktur für Sie und ermöglicht dort Zustandsprüfungen, die Anwendung von Sicherheitspatches und die Durchführung sonstiger Routineaufgaben der Wartung. Sie können die Modellartefakte auch aus dem Training mit benutzerdefinierten Inferenzcodes in Ihrer eigenen Hosting-Umgebung bereitstellen.

F: Wie skaliere ich die Größe und Leistung eines Amazon SageMaker-Modells in der Produktion?

Durch das Amazon SageMaker-Hosting mit Application Auto Scaling wird automatisch auf die Leistung skaliert, die für Ihre Anwendung erforderlich ist. Außerdem können Sie die Nummer und den Typ der Instance manuell ändern, ohne dass es zu Ausfallzeiten kommt, indem Sie die Endpunktkonfiguration ändern.

F: Wie überwache ich meine Amazon SageMaker-Produktionsumgebung?

Amazon SageMaker sendet Leistungsmesswerte an Amazon CloudWatch Metrics, sodass Sie Messwerte verfolgen, Alarme festlegen und automatisch auf Änderungen im Produktionsdatenverkehr reagieren können. Darüber hinaus schreibt Amazon SageMaker Protokolle in Amazon CloudWatch Logs, damit Sie Ihre Produktionsumgebung überwachen und Fehler beheben können.

F: Welche Arten von Modellen können mit Amazon SageMaker gehostet werden?

Mit Amazon SageMaker können alle Modelle gehostet werden, die der dokumentierten Spezifikation für Inferenz-Docker-Image entsprechen. Dazu gehören Modelle, die aus Amazon SageMaker-Modellartefakten und Inferenzcode erstellt wurden.

F: Wie viele gleichzeitige Echtzeit-API-Anforderungen unterstützt Amazon SageMaker?

Amazon SageMaker wurde dafür konzipiert, eine große Anzahl von Transaktionen pro Sekunde zu skalieren. Die genaue Anzahl hängt vom implementierten Modell und der Anzahl und Art der Instances ab, für die das Modell bereitgestellt wird.

F: Was ist Batch-Transformation?

Durch die Batch-Transformation können Sie anhand von großen oder kleinen Daten-Batches Prognosen erstellen. Es ist nicht nötig, den Datensatz in mehrere Teile aufzuteilen oder Echtzeit-Endpunkte zu verwalten. Sie können mit einer einfachen API Prognosen für eine große Anzahl von Datensätzen anfordern und diese Daten leicht und schnell umwandeln.

F: Was ist Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager ist eine Funktion in Amazon SageMaker, mit der ML-Modelle auf Flotten von Edge-Geräten wie Smart-Kameras, Robotern, PCs und Mobilgeräten einfacher optimiert, gesichert, überwacht und gewartet werden können. Mit SageMaker Edge Manager können ML-Entwickler ML-Modelle auf einer Vielzahl von Edge-Geräten in großem Maßstab betreiben.

F: Was sind die ersten Schritte mit Amazon SageMaker Edge Manager?

Um mit SageMaker Edge Manager zu beginnen, müssen Sie Ihre trainierten ML-Modelle in der Cloud kompilieren und verpacken, Ihre Geräte registrieren und Ihre Geräte mit dem SageMaker Edge Manager SDK vorbereiten. Um Ihr Modell für die Bereitstellung vorzubereiten, verwendet SageMaker Edge Manager SageMaker Neo, um Ihr Modell für Ihre Ziel-Edge-Hardware zu kompilieren. Sobald ein Modell kompiliert ist, signiert der SageMaker Edge Manager das Modell mit einem von AWS generierten Schlüssel und verpackt es dann mit seiner Laufzeit und den erforderlichen Anmeldeinformationen, um es für die Bereitstellung vorzubereiten. Auf der Geräteseite registrieren Sie Ihr Gerät bei SageMaker Edge Manager, laden das SageMaker-Edge-Manager-SDK herunter und befolgen die Anweisungen zum Installieren des SageMaker-Edge-Manager-Agenten auf Ihren Geräten. Das Tutorial-Notebook zeigt Ihnen Schritt für Schritt, wie Sie die Modelle vorbereiten und Ihre Modelle mit SageMaker Edge Manager an Edge-Geräte anschließen können.

F: Welche Geräte werden von SageMaker Edge Manager unterstützt?

Amazon SageMaker Edge Manager unterstützt gängige CPU- (ARM, x86) und GPU- (ARM, Nvidia) basierte Geräte mit Linux und Windows Betriebssystemen. Im Laufe der Zeit wird SageMaker Edge Manager erweitert, um mehr eingebettete Prozessoren und mobile Plattformen zu unterstützen, die auch von SageMaker Neo unterstützt werden.

F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker Edge Manager verwenden zu können?

Nein, müssen Sie nicht. Sie können Ihre Modelle anderswo trainieren oder ein bereits trainiertes Modell aus Open Source oder von Ihrem Modellanbieter verwenden.

F: Muss ich mein Modell mit Amazon SageMaker Neo trainieren, um Amazon SageMaker Edge Manager verwenden zu können?

Ja, müssen Sie. Amazon SageMaker Neo konvertiert und kompiliert Ihre Modelle in eine ausführbare Datei, die Sie dann verpacken und auf Ihren Edge-Geräten bereitstellen können. Sobald das Modellpaket bereitgestellt ist, entpackt der Amazon SageMaker Edge Manager-Agent das Modellpaket und führt das Modell auf dem Gerät aus.

F: Wie stelle ich Modelle auf den Edge-Geräten bereit?

Amazon SageMaker Edge Manager speichert das Modellpaket in Ihrem angegebenen Amazon S3-Bucket. Sie können die von AWS IoT Greengrass bereitgestellte Over-the-Air (OTA)-Bereitstellungsfunktion oder einen anderen Bereitstellungsmechanismus Ihrer Wahl verwenden, um das Modellpaket von Ihrem S3-Bucket auf den Geräten bereitzustellen.

F: Wie unterscheidet sich das Amazon SageMaker Edge Manager SDK von der SageMaker Neo-Laufzeit (dlr)?

Neo-DLR ist eine Open Source-Laufzeit, die nur Modelle ausführt, die vom Amazon-SageMaker-Neo-Service kompiliert wurden. Im Vergleich zur Open Source-DLR enthält das SageMaker Edge Manager SDK einen On-Device-Agenten für Unternehmen mit zusätzlichen Funktionen für Sicherheit, Modellverwaltung und Modellbereitstellung. Das SageMaker Edge Manager SDK eignet sich für die Produktionsbereitstellung in großem Maßstab.

F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS IoT Greengrass?

Amazon SageMaker Edge Manager und AWS IoT Greengrass können in Ihrer IoT-Lösung zusammenarbeiten. Sobald Ihr ML-Modell mit SageMaker Edge Manager verpackt ist, können Sie die OTA-Update-Funktion von AWS IoT Greengrass verwenden, um das Modellpaket auf Ihrem Gerät bereitzustellen. Mit AWS IoT Greengrass können Sie Ihre IoT-Geräte remote überwachen, während Sie mit SageMaker Edge Manager die ML-Modelle auf den Geräten überwachen und warten können.

F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS Panorama? Wann sollte ich Amazon SageMaker Edge Manager im Vergleich zu AWS Panorama verwenden?

AWS bietet die größte Breite und Tiefe der Funktionen zum Ausführen von Modellen auf Edge-Geräten. Wir verfügen über Services zur Unterstützung einer Vielzahl von Anwendungsfällen, einschließlich Computervision, Spracherkennung und vorausschauender Wartung.

Für Unternehmen, die Computervision auf Edge-Geräten wie Kameras und Geräten ausführen möchten, können Sie AWS Panorama verwenden. Panorama bietet einsatzbereite Computervision-Anwendungen für Edge-Geräte. Der Einstieg in AWS Panorama ist einfach, indem Sie sich bei der Cloud-Konsole anmelden, das Modell angeben, das Sie in Amazon S3 oder SageMaker verwenden möchten, und anschließend Geschäftslogik als Python-Skript schreiben. AWS Panorama kompiliert das Modell für das Zielgerät und erstellt ein Anwendungspaket, damit es mit nur wenigen Klicks auf Ihren Geräten bereitgestellt werden kann. Darüber hinaus können unabhängige Softwaranbieter, die ihre eigenen benutzerdefinierten Anwendungen erstellen möchten, das AWS Panorama SDK verwenden, und Gerätehersteller können das Geräte-SDK verwenden, um ihre Geräte für AWS Panorama zu zertifizieren.

Kunden, die ihre eigenen Modelle erstellen und die Modellfunktionen genauer steuern möchten, können Amazon SageMaker Edge Manager verwenden. SageMaker Edge Manager ist ein verwalteter Service zum Vorbereiten, Ausführen, Überwachen und Aktualisieren von ML-Modellen für Flotten von Edge-Geräten wie Smart-Kameras, Smart-Lautsprechern und Robotern für alle Anwendungsfälle wie die Verarbeitung natürlicher Sprache, Betrugserkennung und vorausschauende Wartung. SageMaker Edge Manager ist für ML-Edge-Entwickler gedacht, die die Kontrolle über ihr Modell wünschen, einschließlich der Entwicklung verschiedener Modellfunktionen und der Überwachung von Modellen für Drift. Jeder ML-Edge-Entwickler kann SageMaker Edge Manager über die SageMaker-Konsole und die SageMaker-APIs verwenden. SageMaker Edge Manager bietet die Funktionen von SageMaker zum Erstellen, Trainieren und Bereitstellen von Modellen in der Cloud für Edge-Geräte.

F: In welchen AWS-Regionen ist Amazon SageMaker Edge Manager verfügbar?

Amazon SageMaker Edge Manager ist in sechs AWS-Regionen verfügbar: USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), EU (Irland), EU (Frankfurt) und Asien-Pazifik (Tokio). Details finden Sie in der AWS-Tabelle der Regionen.

F: Was ist Amazon SageMaker Neo?

Mit Amazon SageMaker Neo ist es möglich, ML-Modelle einmal zu trainieren und dann überall in der Cloud und am Edge auszuführen. SageMaker Neo optimiert automatisch Modelle, die mit gängigen Deep-Learning-Frameworks entwickelt wurden und auf mehreren Hardwareplattformen bereitgestellt werden können. Optimierte Modelle können bis zu 25 mal schneller ausgeführt werden und verbrauchen weniger als ein Zehntel der Ressourcen eines typischen ML-Modells.

F: Was sind die ersten Schritte mit Amazon SageMaker Neo?

Melden Sie sich für die ersten Schritte mit Amazon SageMaker Neo bei der Amazon-SageMaker-Konsole an, wählen Sie ein trainiertes Modell aus, folgen Sie dem Beispiel zum Kompilieren von Modellen, und stellen Sie das entstandene Modell auf Ihrer Ziel-Hardwareplattform bereit.

F: Was sind die Hauptkomponenten der Amazon SageMaker Neo?

Amazon SageMaker Neo umfasst zwei wesentliche Hauptkomponenten – einen Compiler und eine Laufzeit. Zuerst liest der Neo-Compiler Modelle, die von unterschiedlichen Frameworks exportiert wurden. Anschließend wandelt er die Framework-spezifischen Funktionen und Operationen in eine Framework-unabhängige Zwischenrepräsentation um. Danach führt er eine Reihe von Optimierungen aus. Im Anschluss erzeugt der Compiler Binärcode für die optimierten Operationen und schreibt sie in eine freigegebene Objektbibliothek. Außerdem speichert der Compiler die Modelldefinition und Parameter in separaten Dateien. Während der Ausführung lädt die Neo-Laufzeit die vom Compiler erzeugten Artefakte – Modelldefinition, Parameter und die freigegebene Objektbibliothek zur Modellausführung.

F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker zur Konvertierung des Modells verwenden zu können?

Nein. Sie können Modelle an anderer Stelle trainieren und Neo dazu verwenden, sie für Amazon SageMaker ML-Instances oder von AWS IoT Greengrass unterstützte Geräte zu optimieren.

F: Welche Modelle unterstützt Amazon SageMaker Neo?

Derzeit unterstützt Amazon SageMaker Neo die gängigsten Deep-Learning-Modelle, die Computer-Vision-Anwendungen unterstützen, und die gängigsten Entscheidungsbaum-Modelle, die heute in Amazon SageMaker verwendet werden. Neo optimiert die Leistung von AlexNet-, ResNet-, VGG-, Inception-, MobileNet-, SqueezeNet- und DenseNet-Modellen, die in MXNet und TensorFlow trainiert wurden, und von Klassifizierungs- und Random Cut Forest-Modellen, die in XGBoost trainiert wurden.

F: Welche Hardwareplattformen unterstützt Amazon SageMaker Neo?

Die Listen der unterstützten Cloud-Instances, Edge-Geräte und Framework-Versionen finden Sie in der Dokumentation zu Amazon SageMaker Neo.

F: In welchen AWS-Regionen ist Amazon SageMaker Neo verfügbar?

Um eine Liste der unterstützten Regionen zu sehen, sehen Sie sich die AWS-Tabelle der Regionen an.

Savings Plans für Amazon SageMaker

F: Was sind Savings Plans für Amazon SageMaker?

Amazon SageMaker Savings Plans bietet ein flexibles nutzungsbasiertes Preismodell für Amazon SageMaker im Austausch für eine Verpflichtung zu einer konstanten Nutzungsmenge (gemessen in USD/Stunde) für eine ein- oder dreijährige Laufzeit. Savings Plans für Amazon SageMaker bieten die größte Flexibilität und tragen dazu bei, den Preis um bis zu 64 % zu senken. Diese Pläne gelten automatisch für berechtigte SageMaker ML Instances, darunter auch SageMaker Studio Notebooks, SageMaker On-Demand Notebooks, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference und SageMaker Batch Transform, unabhängig von Instance-Familie, Größe oder Region. Zum Beispiel können Sie jederzeit die Nutzung von einer CPU-Instance ml.c5.xlarge, die in USA Ost (Ohio) läuft, auf eine ml.Inf1-Instance in USA West (Oregon) für Inferenz-Workloads jederzeit ändern und automatisch weiterhin den Preis des Savings Plans bezahlen.

F: Warum sollte ich Savings Plans für Amazon SageMaker verwenden?

Wenn Sie eine gleichbleibende Menge an Amazon-SageMaker-Instances (gemessen in USD/Stunde) verwenden und mehrere SageMaker-Komponenten nutzen oder erwarten, dass sich Ihre Technologiekonfiguration (z. B. Instance-Familie, Region) im Laufe der Zeit ändert, können Sie Ihre Einsparungen mit den SageMaker Savings Plans einfacher maximieren und haben gleichzeitig die Flexibilität, die grundlegende Technologiekonfiguration aufgrund von Anwendungsanforderungen oder neuen Innovationen zu ändern. Der Savings-Plans-Tarif gilt automatisch für die Nutzung aller berechtigten ML-Instances, ohne dass manuelle Änderungen erforderlich sind.

F: Was sind die ersten Schritte mit Savings Plans für Amazon SageMaker?

Sie können im AWS Cost Explorer in der AWS-Managementkonsole oder über die API/CLI die ersten Schritte im Zusammenhang mit Savings Plans unternehmen. Mithilfe der Empfehlungen in AWS Cost Explorer können Sie sich mühelos für Savings Plans entscheiden, um so die größten Einsparungen zu erzielen. Die empfohlene stündliche Festmenge basiert auf Ihrer historischen On-Demand-Nutzung und Ihrer Wahl von Plantyp, Laufzeit und Zahlungsoption. Sobald Sie sich für einen Savings Plan registriert haben, wird Ihre genutzte Datenverarbeitungsleistung automatisch zu den ermäßigten Savings-Plans-Preisen berechnet. Jede darüber hinausgehende Nutzung wird zu den normalen On-Demand-Tarifen berechnet.

F: Wie unterscheiden sich die Savings Plans für Amazon SageMaker von den Compute-Savings-Plans für Amazon EC2?

Der Unterschied zwischen Savings Plans für Amazon SageMaker und Savings Plans für EC2 liegt in den enthaltenen Services. Savings Plans für SageMaker gelten nur für die SageMaker ML-Instance-Nutzung.

F: Wie funktionieren Savings Plans bei AWS Organizations/konsolidierter Fakturierung?

Savings Plans können in jedem Konto innerhalb einer AWS-Organisation/Produktreihe mit konsolidierter Fakturierung erworben werden. Standardmäßig gilt der Vorteil von Savings Plans für die Nutzung über alle Konten innerhalb einer AWS-Organisation/konsolidierten Abrechnungs-Familie. Sie können sich aber auch dafür entscheiden, den Vorteil von Savings Plans nur auf das Konto zu beschränken, das sie erworben hat.

Weitere Informationen zu den Amazon SageMaker-Preisen

Preisübersicht
Sind Sie startbereit?
Registrieren
Haben Sie noch Fragen?
Kontaktieren Sie uns