Allgemeines

F: Was ist Amazon SageMaker?

Amazon SageMaker ist ein vollständig verwalteter Dienst, der jedem Entwickler und Datenwissenschaftler die Möglichkeit bietet, schnell Modelle für Machine Learning (ML) zu erstellen, zu trainieren und bereitzustellen. SageMaker beseitigt die harte Arbeit in jedem Schritt des Machine Learning-Prozess, um die Entwicklung hochwertiger Modelle zu vereinfachen.

F: In welchen Regionen ist Amazon SageMaker verfügbar?

Eine Liste der unterstützten Amazon SageMaker AWS-Regionen finden Sie in der AWS-Regionstabelle. Sie enthält Informationen zur gesamten globalen AWS-Infrastruktur. Weitere Informationen erhalten Sie außerdem unter Regionen und Endpunkte in der allgemeinen AWS-Referenz.

F: Wie ist die Serviceverfügbarkeit von Amazon SageMaker?

Amazon SageMaker ist für hohe Verfügbarkeit konzipiert. Es gibt keine Wartungsfenster und keine geplanten Ausfallzeiten. SageMaker-APIs werden in den bewährten Hochverfügbarkeits-Rechenzentren von Amazon ausgeführt. Die Replizierung des Service-Stacks arbeitet an drei Standorten in jeder AWS-Region und bietet so eine Fehlertoleranz bei eventuellen Ausfällen von Server oder Availability Zone.

F: Welche Sicherheitsmaßnahmen gibt es bei Amazon SageMaker?

Amazon SageMaker stellt sicher, dass ML-Modellartefakte und andere Systembestandteile sowohl bei der Übertragung als auch im inaktiven Zustand verschlüsselt sind. Anforderungen an die SageMaker-API und die Konsole werden über eine sichere SSL-Verbindung gesendet. Sie übergeben AWS Identity and Access Management-Rollen an SageMaker, um Berechtigungen für den Zugriff auf Ressourcen in Ihrem Namen für Schulung und Implementierung bereitzustellen. Sie können verschlüsselte Amazon S3-Buckets für Modellartefakte und Daten verwenden sowie einen KMS-Schlüssel an SageMaker-Notebooks, Trainingsaufgaben und Endpunkte übergeben, um das angehängte ML-Speicher-Volumen zu verschlüsseln. Amazon SageMaker unterstützt auch die Unterstützung von Amazon Virtual Privacy Cloud (VPC) und AWS PrivateLink.

F: Wie sichert Amazon SageMaker meinen Code?

Amazon SageMaker speichert Code in ML-Speicher-Volumes, die von Sicherheitsgruppen gesichert und optional verschlüsselt werden.

F: Wie wird die Verwendung von Amazon SageMaker berechnet?

Sie zahlen für ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie zum Hosten des Notebooks, Trainieren des Modells, Treffen von Vorhersagen und Protokollieren von Ausgaben nutzen. Mit Amazon SageMaker können Sie die Anzahl und den Typ der Instances auswählen, die für das gehostete Notebook, Trainings und das Modell-Hosting verwendet werden. Sie zahlen nur für den tatsächlichen Gebrauch. Es fallen keine Mindestgebühren oder Vorauszahlungen an. Einzelheiten finden Sie auf der Seite mit den Amazon SageMaker-Preisen.

F: Was ist, wenn ich über meine eigene Notebook-, Trainings- oder Hosting-Umgebung verfüge?

Amazon SageMaker bietet einen vollständigen, durchgehenden Workflow, aber Sie können Ihre vorhandenen Tools weiterhin mit SageMaker verwenden. Sie können die Ergebnisse jeder Phase ganz einfach gemäß Ihren Geschäftsanforderungen in oder aus SageMaker übertragen.

F: Wird R mit Amazon SageMaker unterstützt?

Ja, R wird von Amazon SageMaker unterstützt. Sie können R innerhalb von SageMaker Notebook-Instances verwenden, die einen vorinstallierten R-Kernel und die netzförmig angelegte (Reticulate-)Bibliothek enthalten. Reticulate bietet eine R-Schnittstelle für das Amazon SageMaker Python SDK, die es Machine-Learning-Anwendern ermöglicht, R-Modelle zu erstellen, zu trainieren, abzustimmen und einzusetzen. 

F. Wie kann ich in meinem Modell nach Ungleichgewichten suchen?

Amazon SageMaker Clarify hilft bei der Verbesserung der Modelltransparenz, indem statistische Verzerrungen über den gesamten ML-Workflow hinweg erkannt werden. SageMaker Clarify prüft auf Ungleichgewichte während der Datenaufbereitung, nach dem Training und im Laufe der Zeit und enthält außerdem Tools zur Erläuterung der ML-Modelle und ihrer Prognosen. Die Ergebnisse können über Erklärbarkeitsberichte ausgetauscht werden.

F. Welche Art von Verzerrung erkennt Amazon SageMaker Clarify?

Die Messung der Verzerrung in ML-Modellen ist ein erster Schritt zur Verringerung der Verzerrung. Die Verzerrung kann vor dem Training und nach dem Training sowie als Rückschluss auf ein eingesetztes Modell gemessen werden. Jedes Maß der Verzerrung entspricht einem anderen Begriff der Fairness. Selbst wenn man einfache Vorstellungen von Fairness berücksichtigt, führt dies zu vielen verschiedenen Maßnahmen, die in verschiedenen Kontexten anwendbar sind. Wir müssen Verzerrungsvorstellungen und Metriken auswählen, die für die Anwendung und die untersuchte Situation gültig sind. Wir unterstützen derzeit die Berechnung verschiedener Verzerrungsmetriken für Trainingsdaten (als Teil der SageMaker-Datenaufbereitung), für das trainierte Modell (als Teil von SageMaker-Experimenten) und für die Schlussfolgerung für ein bereitgestelltes Modell (als Teil von SageMaker Model Monitor). Zum Beispiel stellen wir vor dem Training Metriken zur Verfügung, um zu überprüfen, ob die Trainingsdaten repräsentativ sind (d. h. ob eine Gruppe unterrepräsentiert ist) und ob es Unterschiede in der Etikettenverteilung zwischen den Gruppen gibt. Nach dem Training oder während der Bereitstellung können unsere Metriken hilfreich sein, um zu messen, ob (und um wie viel) sich die Leistung des Modells zwischen den Gruppen unterscheidet. Zum Beispiel können wir zunächst die Fehlerraten vergleichen (wie wahrscheinlich es ist, dass die Vorhersage eines Modells von der tatsächlichen Bezeichnung abweicht) oder weiter in Präzision zerlegen (wie wahrscheinlich es ist, dass eine positive Prognose korrekt ist) und abrufen (wie wahrscheinlich das Modell ein positives Beispiel richtig kennzeichnen wird).

F. Wie verbessert Amazon SageMaker Clarify die Erklärbarkeit des Modells?

Amazon SageMaker Clarify ist in SageMaker-Experimente integriert, um ein Funktionswichtigkeitsdiagramm bereitzustellen, in dem die Wichtigkeit jeder Eingabe für den gesamten Entscheidungsprozess Ihres Modells nach dem Training des Modells aufgeführt ist. Mithilfe dieser Details können Sie feststellen, ob eine bestimmte Modelleingabe mehr Einfluss auf das Gesamtmodellverhalten hat als erwartet. SageMaker Clarify stellt auch Erklärungen für einzelne Prognosen über die API zur Verfügung, damit diese als Mitarbeiter mit Kunden- oder Stakeholder-Gesicht verwendet werden können.
 

F. Was ist Amazon SageMaker Studio?

Amazon SageMaker Studio bietet eine einzige webbasierte visuelle Oberfläche, auf der Sie alle ML-Entwicklungsschritte ausführen können. Mit SageMaker Studio erhalten Sie vollständigen Zugriff, Kontrolle und Einblick in alle Schritte, die zum Erstellen, Trainieren und Bereitstellen von Modellen erforderlich sind. Sie können schnell Daten hochladen, neue Notizbücher erstellen, Modelle schulen und optimieren, zwischen den Schritten hin und her wechseln, um Experimente anzupassen, Ergebnisse zu vergleichen und Modelle an einem Ort für die Produktion bereitzustellen, wodurch Sie viel produktiver werden. Alle ML-Entwicklungsaktivitäten, einschließlich Notebooks, Experimentverwaltung, automatische Modellerstellung, Debugging und Profilerstellung sowie Modellabweichungserkennung, können über die einheitliche visuelle Oberfläche von SageMaker Studio ausgeführt werden.

F. Was ist die Preisstruktur von Amazon SageMaker Studio?

Für die Nutzung von Amazon Amazon SageMaker Studio fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die zugrunde liegenden Rechen- und Speichergebühren für die Dienste, die Sie in Amazon SageMaker Studio verwenden.

F. In welchen Regionen wird Amazon SageMaker Studio unterstützt?

Die Regionen, in denen Amazon SageMaker Studio unterstützt wird, finden Sie in der Dokumentation hier.

Machine Learning mit niedrigem Code

F. Was ist Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot ist die erste automatisierte Machine Learning-Funktion der Branche, mit der Sie Ihre ML-Modelle vollständig steuern und einsehen können. SageMaker Autopilot überprüft automatisch die Rohdaten, wendet Feature-Prozessoren an, wählt die besten Algorithmen aus, trainiert und optimiert mehrere Modelle, verfolgt deren Leistung und ordnet die Modelle mit nur wenigen Klicks anhand der Leistung. Das Ergebnis ist das Modell mit der besten Leistung, das Sie zu einem Bruchteil der für das Trainieren des Modells normalerweise erforderlichen Zeit bereitstellen können. Sie erhalten einen vollständigen Überblick darüber, wie das Modell erstellt wurde und was darin enthalten ist, und SageMaker Autopilot lässt sich in Amazon SageMaker Studio integrieren. Sie können bis zu 50 verschiedene Modelle untersuchen, die von SageMaker Autopilot in SageMaker Studio generiert wurden, sodass Sie ganz einfach das beste Modell für Ihren Anwendungsfall auswählen können. SageMaker Autopilot kann von Personen ohne Erfahrung mit Machine Learning verwendet werden, um auf einfache Weise ein Modell zu erstellen, oder von erfahrenen Entwicklern, um schnell ein Basismodell zu entwickeln, auf dem Teams weiter iterieren können.

F: Inwieweit unterscheidet sich Amazon SageMaker Autopilot von vertikalen KI-Services wie Amazon Personalize oder Amazon Forecast?

Während sich Amazon Personalize und Amazon Forecast speziell auf personalisierte Anwendungsfälle im Rahmen von Empfehlungen und Prognosen beziehen, ist Amazon SageMaker Autopilot eine generische, automatische Machine Learning-Lösung für Klassifizierung und Regressionsprobleme, z. B. bei Betrugserkennung, Wanderungsanalysen und gezieltem Marketing. Bei Personalize und Forecast liegt der Fokus auf der Vereinfachung der durchgehenden Erfahrung durch das Angebot von Trainings- und Modell-Hosting in einem Paket. Sie können Modelle über Amazon SageMaker Autopilot trainieren und erhalten einen umfassenden Zugriff auf die Modelle sowie auf die Pipelines, von denen diese Modelle generiert werden. Sie können dann die Modelle in der Hosting-Umgebung Ihrer Wahl bereitstellen oder die Modelle zur Verbesserung der Modellqualität iterieren.

F: Welche integrierten Algorithmen werden in Amazon SageMaker Autopilot unterstützt?

Amazon SageMaker Autopilot unterstützt 2 integrierte Algorithmen beim Start: XGBoost und Linear Learner.

F: Kann ich eine Amazon SageMaker Autopilot-Aufgabe manuell anhalten?

Ja. Sie können eine Aufgabe jederzeit anhalten. Wenn eine Amazon SageMaker Autopilot-Aufgabe angehalten wurde, werden alle laufenden Versuche ebenfalls angehalten, und es werden keine neuen Versuche gestartet.

F: Was sind die ersten Schritte mit Amazon SageMaker?

Mit dem Amazon SageMaker JumpStart können Sie schnell und einfach mit Machine Learning beginnen. Der SageMaker JumpStart bietet eine Reihe von Lösungen für die häufigsten Anwendungsfälle, die mit nur wenigen Klicks bereitgestellt werden können. Die Lösungen sind vollständig anpassbar und zeigen die Verwendung von AWS CloudFormation-Vorlagen und Referenzarchitekturen, damit Sie Ihre Reise zum Machine Learning beschleunigen können. Der SageMaker JumpStart unterstützt auch die Ein-Klick-Bereitstellung und Feinabstimmung von mehr als 150 gängigen Open Source-Modellen wie Transformator-, Objekterkennungs- und Bildklassifizierungsmodellen.
 

F: Welche Open Source-Modelle werden von Amazon SageMaker JumpStart unterstützt?

Der Amazon SageMaker JumpStart enthält mehr als 150+ vorgefertigte Open Source-Modelle von PyTorch Hub & TensorFlow Hub. Für Bildverarbeitungsaufgaben wie Bildklassifizierung und Objekterkennung können Sie Modelle wie ResNet, MobileNet und Single-Shot Detector (SSD) nutzen. Für Textaufgaben wie Satzklassifizierung, Textklassifizierung und Beantwortung von Fragen können Sie Modelle wie BERT, RoBERTa und DistilBERT verwenden.

F. Welche Lösungen werden mit Amazon SageMaker JumpStart vorgefertigt?

SageMaker JumpStart enthält Lösungen, die mit allen erforderlichen AWS-Services vorkonfiguriert sind, um eine Lösung in die Produktion zu bringen. Die Lösungen sind vollständig anpassbar, sodass Sie sie problemlos an Ihren spezifischen Anwendungsfall und Datensatz anpassen können. Sie können Lösungen für über 15 Anwendungsfälle verwenden, einschließlich Bedarfsprognose, Betrugserkennung und vorausschauende Wartung, und Lösungen mit nur wenigen Klicks bereitstellen. Weitere Informationen zu allen verfügbaren Lösungen finden Sie auf der SageMaker-Seite Erste Schritte.
 

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker JumpStart?

Ihnen werden die AWS-Services berechnet, die mit SageMaker JumpStart gestartet wurden, z. B. Schulungsaufgaben und Endpunkte, basierend auf den SageMaker-Preisen. Für die Nutzung von Amazon SageMaker JumpStart fallen keine zusätzlichen Gebühren an.

Machine Learning-Workflows

F. Wie kann ich mit Amazon SageMaker eine CI-/CD-Pipeline erstellen?

Mit Amazon SageMaker Pipelines können Sie vollautomatische ML-Workflows von der Datenaufbereitung bis zur Modellbereitstellung erstellen, sodass Unternehmen in der Produktion auf Tausende von ML-Modellen skalieren können. SageMaker Pipelines wird mit einem Python SDK geliefert, das eine Verbindung zum SageMaker Studio herstellt, sodass Sie eine visuelle Oberfläche nutzen können, um jeden Schritt des Workflows zu erstellen. Anschließend können Sie mithilfe einer einzelnen API jeden Schritt verbinden, um einen End-to-End-Workflow zu erstellen. SageMaker Pipelines kümmert sich um die Verwaltung der Daten zwischen den Schritten, das Packen der Code-Rezepte und die Orchestrierung ihrer Ausführung, wodurch die monatelange Codierung auf einige Stunden reduziert wird. Jedes Mal, wenn ein Workflow ausgeführt wird, wird eine vollständige Aufzeichnung der verarbeiteten Daten und der ergriffenen Maßnahmen geführt, damit Datenwissenschaftler und ML-Entwickler Probleme schnell beheben können.

Frage: Wie kann ich alle meine trainierten Modelle anzeigen, um das beste Modell für die Produktion auszuwählen?

Amazon SageMaker Pipelines bietet ein zentrales Repository für trainierte Modelle, die als Modellregistrierung bezeichnet wird. Sie können Modelle erkennen und visuell über SageMaker Studio oder programmgesteuert über das Python SDK auf die Modellregistrierung zugreifen. So können Sie ganz einfach das gewünschte Modell für die Bereitstellung in der Produktion auswählen.

F. Welche Komponenten von Amazon SageMaker können zu Amazon SageMaker-Pipelines hinzugefügt werden?

Die über Amazon SageMaker Studio verfügbaren Komponenten, einschließlich SageMaker Clarify, SageMaker Data Wrangler, SageMaker Feature Store, SageMaker-Experimente, SageMaker Debugger und SageMaker Model Monitor, können zu SageMaker Pipelines hinzugefügt werden.

F. Wie verfolge ich meine Modellkomponenten über den gesamten ML-Workflow?

Amazon SageMaker Pipelines verfolgt automatisch alle Modellbestandteile und führt einen Prüfpfad über alle Änderungen, wodurch die manuelle Nachverfolgung entfällt und Sie beim Erreichen von Compliance-Zielen helfen können. Mit SageMaker Pipelines können Sie Daten, Code, trainierte Modelle und mehr verfolgen.

F. Wie funktioniert die Preisgestaltung für Amazon SageMaker Pipelines?

Für die Nutzung von Amazon Amazon SageMaker Pipelines fallen keine zusätzlichen Gebühren an. Sie zahlen nur für den zugrunde liegenden Computer oder separate AWS-Services, die Sie in SageMaker Pipelines verwenden.

F. Kann ich Kubeflow mit Amazon SageMaker verwenden?

Ja. Amazon SageMaker Components for Kubeflow Pipelines sind Open-Source-Plugins, die es Ihnen ermöglichen, Kubeflow Pipelines zum Definieren Ihrer ML-Workflows und SageMaker für Datenkennzeichnung, Training und Inferenzschritte zu verwenden. Kubeflow Pipelines ist ein Add-on für Kubeflow, mit dem Sie portable und skalierbare End-to-End-ML-Pipelines entwickeln und bereitstellen können. Allerdings müssen ML-Betriebsteams beim Verwenden von Kubeflow Pipelines einen Kubernetes-Cluster mit CPU- und GPU-Instances verwalten und stets für eine hohe Auslastung sorgen, um Betriebskosten zu senken. Das Maximieren der Auslastung eines Clusters für mehrere Daten-Wissenschaftsteams ist schwierig und sorgt bei den ML-Betriebsteams für einen zusätzlichen betrieblichen Aufwand. Als Alternative für einen ML-optimierten Kubernetes-Cluster können Sie mit Amazon SageMaker Components for Kubeflow Pipelines leistungsstarke SageMaker-Funktionen nutzen, beispielsweise Datenkennzeichnung, vollständig verwaltete, umfangreiche Hyperparameter-Optimierung, verteilte Trainingsaufgaben, sichere und skalierbare Modellbereitstellung mit nur einem Klick sowie kostengünstiges Training durch Amazon EC2-Spot-Instances, ohne dass Sie Kubernetes-Cluster speziell für die Ausführung der Machine-Learning-Aufgaben konfigurieren und verwalten müssen.

F: Wie funktioniert die Preisgestaltung für Amazon SageMaker-Komponenten für Kubeflow-Pipelines?

Für die Nutzung von Amazon SageMaker Components for Kubeflow Pipelines fallen keine zusätzlichen Gebühren an.
 

Daten vorbereiten

F. Wie kann Amazon SageMaker Daten für Machine Learning vorbereiten?

Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für die Zusammenführung und Vorbereitung von Daten für Machine Learning. Über eine einzige Oberfläche in SageMaker Studio können Sie Daten aus Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation und Amazon SageMaker Feature Store importieren. Mit nur wenigen Klicks lädt SageMaker Data Wrangler die Daten automatisch, aggregiert und zeigt die Rohdaten an. Anschließend werden Konvertierungsempfehlungen basierend auf den Quelldaten abgegeben, die Daten in neue Funktionen umgewandelt, die Funktionen validiert und Visualisierungen mit Empfehlungen zum Entfernen häufiger Fehlerquellen wie falscher Beschriftungen bereitgestellt. Sobald Ihre Daten vorbereitet sind, können Sie mit Amazon SageMaker Pipelines vollautomatische Workflows für Machine Learning erstellen oder diese Daten in den Amazon SageMaker Feature Store importieren.

F. Wie kann ich mit Amazon SageMaker Data Wrangler Modellfunktionen erstellen?

Ohne eine einzige Codezeile zu schreiben, kann Amazon SageMaker Data Wrangler Ihre Daten automatisch in neue Funktionen umwandeln. SageMaker Data Wrangler bietet eine Auswahl vorkonfigurierter Datentransformationen, z. B. Spaltentyp konvertieren, eine Hot-Codierung, fehlende Daten mit Mittelwert oder Median unterstellen, Spalten neu skalieren und Daten-/Zeit-Einbettungen. Sie können beispielsweise eine Textfeldspalte mit einem einzigen Klick in eine numerische Spalte konvertieren oder benutzerdefinierte Transformationen in PySpark, SQL und Pandas erstellen.

F. Wie kann ich meine Daten in Amazon SageMaker Data Wrangler visualisieren?

Mit Amazon SageMaker Data Wrangler können Sie Ihre Daten besser verstehen und potenzielle Fehler und Extremwerte mithilfe einer Reihe robuster vorkonfigurierter Visualisierungsvorlagen identifizieren. Histogramme, Streudiagramme und ML-spezifische Visualisierungen wie die Erkennung von Ziellecks sind verfügbar, ohne dass eine einzige Codezeile geschrieben werden muss. Sie können auch eigene Visualisierungen erstellen und bearbeiten.

F. Wie funktioniert die Preisgestaltung für Amazon SageMaker Data Wrangler?

Sie zahlen für alle ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie für Amazon SageMaker Data Wrangler verwenden. Hier können Sie alle Details zu den Preisen von Amazon SageMaker Data Wrangler einsehen. Im Rahmen des kostenlosen AWS-Kontingents können Sie auch kostenlos mit SageMaker Data Wrangler beginnen.

F. Wie speichere ich Funktionen für meine ML-Modelle?

Amazon SageMaker Feature Store bietet ein zentrales Repository für Datenfunktionen mit Lese- und Schreibvorgängen mit geringer Latenz (Millisekunden). Funktionen können über die SageMaker-Funktion gespeichert, abgerufen, entdeckt und gemeinsam genutzt werden, um sie für Modelle und Teams mit sicherem Zugriff und Kontrolle einfach wiederzuverwenden. Der SageMaker Feature Store unterstützt sowohl Online- als auch Offline-Funktionen, die über Batch- oder Streaming-Pipelines generiert werden. Er unterstützt das Auffüllen der Funktionen und bietet sowohl Online- als auch Offline-Speicher, um die Parität zwischen den Funktionen zu gewährleisten, die beim Modelltraining und bei der Inferenz verwendet werden.

F. Wie kann ich die Konsistenz zwischen Online- und Offline-Funktionen aufrechterhalten?

Der Amazon SageMaker Feature Store gewährleistet automatisch die Konsistenz zwischen Online- und Offline-Funktionen ohne zusätzliche Verwaltung oder Code. Der SageMaker Feature Store wird vollständig verwaltet und sorgt für Konsistenz in allen Trainings- und Inferenzumgebungen.

F. Wie kann ich eine Funktion von einem bestimmten Zeitpunkt an reproduzieren?

Der Amazon SageMaker Feature Store verwaltet zu jeder Zeit Zeitstempel für alle Funktionen. Auf diese Weise können Sie jederzeit Funktionen für geschäftliche oder Compliance-Anforderungen abrufen. Sie können Modellfunktionen und ihre Werte von der ersten Erstellung bis zur Gegenwart leicht erklären, indem Sie das Modell ab einem bestimmten Zeitpunkt reproduzieren.

F. Was sind Offline-Funktionen?

Offline-Funktionen werden für Schulungen verwendet, da Sie über einen langen Zeitraum Zugriff auf sehr große Volumes benötigen. Diese Funktionen werden von einem Repository mit hohem Durchsatz und hoher Bandbreite bereitgestellt.

F. Was sind Online-Funktionen?

Online-Funktionen werden in Anwendungen verwendet, die für Echtzeitprognosen erforderlich sind. Online-Funktionen werden aus einem Repository mit hohem Durchsatz und einer einstelligen Millisekunden-Latenz für schnelle Prognosen bereitgestellt.

F. Wie funktioniert die Preisgestaltung für Amazon SageMaker Feature Store?

Im Rahmen des kostenlosen Kontingents für AWS können Sie Amazon SageMaker Feature Store zum Einstieg kostenlos verwenden. Mit dem SageMaker Feature Store bezahlen Sie für das Schreiben in den Feature Store sowie für das Lesen und Speichern im Online Feature Store. Auf der SageMaker-Preisseite finden Sie alle Details zur Preisgestaltung für den SageMaker Feature Store.

F. Was ist Amazon SageMaker Ground Truth?

Amazon SageMaker Ground Truth bietet automatisiertes Daten-Labeling mit Hilfe von Machine Learning. SageMaker Ground Truth wählt zunächst ein zufälliges Datensample aus und sendet dieses zum Labeling an Amazon Mechanical Turk. Anhand der Ergebnisse wird ein Labeling-Modell trainiert, das zum automatischen Labeling eines weiteren Datensamples verwendet wird. Die Labels werden jedoch erst festgeschrieben, wenn das Modell die Daten mit einer Zuverlässigkeit von mindestens einem von Ihnen definierten Grenzwert kennzeichnen kann. Bei Nichterreichen dieses Grenzwerts werden die Daten an menschliche Kennzeichner gesendet. Aus einem Teil der von Menschen gekennzeichneten Daten wird wiederum ein neues Trainings-Dataset für das Labeling-Modell generiert, mit dem das Modell automatisch neu trainiert wird, um seine Genauigkeit zu verbessern. Dieser Prozess wiederholt sich mit jedem neu gekennzeichneten Rohdatensample. Bei jeder Wiederholung lernt das Modell dazu und wird immer präziser im Labeling der Rohdaten, so dass immer weniger Daten an Menschen gesendet werden müssen.
 

Modelle aufbauen

F: Was ist Amazon SageMaker Studio Notebooks?

Amazon SageMaker Studio Notebook ist ein neues gemeinschaftliches, flexibles, verwaltetes Jupyter-Notebook, das Teil von Amazon SageMaker Studio ist, einer vollständig integrierten Entwicklungsumgebung für Machine Learning.

F: Inwiefern unterscheiden sich SageMaker Studio Notebooks von den instancebasierten Notebooks, die angeboten werden?

SageMaker Studio Notebooks bietet einige wichtige Merkmale, die ihn von den instancebasierten Notebooks unterscheiden. Mit der neuen Notebook-Erfahrung können Sie jetzt Notebooks schnell starten, ohne dass Sie eine Instance manuell bereitstellen und warten müssen, bis sie einsatzbereit ist. Die Startzeit beim Start der Benutzeroberfläche zum Lesen und Ausführen eines Notebooks ist kürzer als bei den instancebasierten Notebooks.

Sie haben auch die Flexibilität, jederzeit aus einer großen Sammlung von Instance-Typen innerhalb der Benutzeroberfläche zu wählen. Sie brauchen nicht mehr zur AWS-Konsole zu gehen, um neue Instances zu starten und über Ihre Notebooks zu portieren.

Jeder Benutzer hat ein isoliertes Home-Verzeichnis, unabhängig von einer bestimmten Instance. Dieses Verzeichnis wird beim Start automatisch in alle Notebook-Server und Kernel gemountet, so dass Sie auf Ihre Notebooks und andere Dateien zugreifen können, auch wenn Sie die Instance wechseln, um Ihre Notebooks anzuzeigen und auszuführen.

SageMaker Studio Notebooks sind in AWS SSO integriert, so dass es einfach ist, die organisatorischen Zugangsdaten für den Zugriff auf die Notebooks zu verwenden. Die gemeinsame Nutzung von Notebooks ist eine integrierte Funktion in SageMaker Studio Notebooks. Sie können Ihre Notebooks auch mit einem einzigen Klick für Ihre Kollegen freigeben.

F: Welche Arten von Notebooks werden unterstützt?

Derzeit werden Juypter-Notebooks unterstützt.

F: Wie funktioniert Amazon SageMaker Studio Notebooks?

Amazon SageMaker Studio Notebooks sind One-Click-Jupyter-Notebooks, die sich schnell hochfahren lassen. Die zugrunde liegenden Rechenressourcen sind voll elastisch, sodass Sie die verfügbaren Ressourcen einfach nach oben oder unten wählen können und die Änderungen automatisch im Hintergrund stattfinden, ohne Ihre Arbeit zu unterbrechen. SageMaker ermöglicht auch die Freigabe von Notebooks mit einem Klick. Sie können Notebooks problemlos mit anderen teilen und diese erhalten genau dasselbe Notebook, das am selben Ort gespeichert ist.

Mit SageMaker Studio Notebooks können Sie sich mit Ihren Unternehmensdaten über AWS SSO anmelden. Die gemeinsame Nutzung von Notebooks innerhalb und zwischen Teams ist einfach, da die für den Betrieb eines Notebooks erforderlichen Abhängigkeiten automatisch in den Arbeits-Images verfolgt werden, die bei der gemeinsamen Nutzung des Notebooks mit diesem gekapselt werden.

F: Wie funktioniert die Zusammenarbeit von Amazon SageMaker Studio Notebooks mit anderen AWS-Services?

Amazon SageMaker Studio Notebooks gewährt Zugriff auf alle SageMaker-Funktionen, darunter verteiltes Training, Batch-Transformation, Hosting und Experimentverwaltung. Sie können aus SageMaker Notebooks heraus auf andere Services wie Datensätze in Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR, oder AWS Lake Formation zugreifen.

F: Was ist die Preisstruktur von SageMaker Studio Notebooks?

Bei der Nutzung von SageMaker Studio Notebooks zahlen Sie für Rechnerleistung und Speicherkapazität. Unter Preise von Amazon SageMaker finden Sie die Gebühren abhängig vom Instance-Typ der Datenverarbeitung. Ihre Notebooks und einschlägige Artefakte wie Dateien und Skripte bleiben auf Amazon EFS erhalten. Unter Preise von Amazon EFS finden Sie die Gebühren für Speicher. Im Rahmen des kostenlosen Kontingents für AWS können Sie Amazon SageMaker Studio Notebooks zum Einstieg kostenlos verwenden.

F: Werden mir Notebooks, die in SageMaker Studio eingerichtet und betrieben werden, separat berechnet?

Nein. Sie können auf derselben Compute-Instance mehrere Notebooks einrichten und betreiben. Sie zahlen nur für genutzte Datenverarbeitung, nicht für einzelne Elemente. Weitere Informationen zu diesem Thema finden Sie unserem Leitfaden zur Messung.

Neben Notebooks können Sie in Studio zudem Terminals und interaktive Shells starten und betreiben – alles auf derselben Compute-Instance. Jede Anwendung läuft innerhalb eines Containers oder Images. SageMaker Studio stellt eine Reihe integrierter Images bereit, die gezielt und vorab konfiguriert für Datenwissenschaft und Machine Learning sind. Weitere Informationen über die Entwicklerumgebung von Studio finden Sie in unserem Leitfaden für SageMaker Studio Notebooks.

F: Wie überwache ich die von meinen Notebooks genutzten Ressourcen und fahre sie herunter?

Überwachung und Herunterfahren der Ressourcen, die von Ihren SageMaker Studio Notebooks genutzt werden, können über die visuelle Oberfläche von SageMaker Studio sowie die AWS-Managementkonsole erfolgen. Weitere Informationen finden Sie in der Dokumentation.

F: Ich betreibe ein SageMaker Studio Notebook. Fallen weiterhin Kosten an, wenn ich Browser oder Notebook-Tab schließe oder den Browser einfach offen lasse?

Ja. Sie werden weiterhin für die Datenverarbeitung belastet. Dies ist ähnlich dem Fall, wenn EC2-Instances in der AWS-Managementkonsole gestartet werden und dann der Browser geschlossen wird. Die EC2-Instances laufen weiter und Ihnen entstehen weiterhin Gebühren, wenn Sie eine Instance nicht explizit herunterfahren.

F: Fallen für das Erstellen und Einrichten einer Studio-Domäne Kosten an?

Nein. Für Einrichten oder Konfigurieren einer Studio-Domäne sowie Hinzufügen, Updaten und Löschen von Benutzerprofilen entstehen keine Gebühren.

F: Wie kann ich die einzelnen Gebührenposten für Studio Notebooks oder sonstige SageMaker-Services einsehen?

Als Administrator finden Sie die Liste der einzelnen Gebührenposten für SageMaker, darunter derer für Studio, in der AWS-Fakturierungskonsole. Wählen Sie in der AWS-Managementkonsole für SageMaker im Menü oben Services aus, geben Sie im Suchfeld Fakturierung ein und wählen Sie aus der Dropdown-Liste „Fakturierung“ aus. Wählen Sie dann auf der linken Seite Rechnungen aus. Im Bereich „Details“ können Sie auf SageMaker klicken, um die Liste der Regionen zu erweitern und einzelne Gebührenposten anzusehen.

Modelle trainieren

F: Was sind Amazon SageMaker-Experimente?

Mit Amazon SageMaker-Experimenten können Sie Iterationen von Modellen für Machine Learning organisieren und nachverfolgen. Mit SageMaker-Experimenten können Sie Iterationen verwalten, indem Sie die Eingabeparameter, Konfigurationen und Ergebnisse automatisch erfassen und als „Experimente“ speichern. Sie können in der visuellen Oberfläche von SageMaker Studio arbeiten, in der Sie aktive Experimente durchsuchen, nach früheren Experimenten anhand ihrer Eigenschaften suchen, frühere Experimente mit ihren Ergebnissen überprüfen und die Testergebnisse visuell vergleichen können.

F: Was ist Amazon SageMaker Debugger?

Amazon SageMaker Debugger erfasst während des Trainings automatisch Echtzeitmetriken wie Training und Validierung, Verwirrungsmatrizen und Lernverläufe, um die Modellgenauigkeit zu verbessern. Die Metriken von SageMaker Debugger können zum besseren Verständnis in SageMaker Studio visualisiert werden. SageMaker Debugger kann auch Warnungen und Fehlerbehebungshinweise generieren, wenn allgemeine Schulungsprobleme festgestellt werden. SageMaker Debugger überwacht und profiliert außerdem automatisch Systemressourcen wie CPU, GPU, Netzwerk und Speicher in Echtzeit und gibt Empfehlungen zur Neuzuweisung dieser Ressourcen. Auf diese Weise können Sie Ihre Ressourcen während des Trainings effizient nutzen und Kosten und Ressourcen reduzieren.

F. Wird verteiltes Training von Amazon SageMaker unterstützt?

Ja. Amazon SageMaker kann Deep-Learning-Modelle und große Trainingssätze in einem Bruchteil der Zeit, die zum manuellen Erstellen und Optimieren dieser Verteilungsstrategien erforderlich ist, automatisch auf AWS GPU-Instances verteilen. Die beiden verteilten Trainingstechniken, die SageMaker anwendet, sind Datenparallelität und Modellparallelität. Datenparallelität wird angewendet, um die Trainingsgeschwindigkeit zu verbessern, indem die Daten gleichmäßig auf mehrere GPU-Instances verteilt werden, sodass jede Instance gleichzeitig trainieren kann. Modellparallelität ist nützlich für Modelle, die zu groß sind, um auf einer einzelnen GPU gespeichert zu werden, und erfordert, dass das Modell in kleinere Teile aufgeteilt wird, bevor es auf mehrere GPUs verteilt wird. Mit nur wenigen Zeilen zusätzlichen Codes in Ihren PyTorch- und TensorFlow-Schulungsskripten wendet SageMaker automatisch Datenparallelität oder Modellparallelität für Sie an, sodass Sie Ihre Modelle schneller entwickeln und bereitstellen können. SageMaker bestimmt den besten Ansatz für die Aufteilung Ihres Modells, indem es Algorithmen zur Graphenpartitionierung verwendet, um die Berechnungen der einzelnen GPUs auszugleichen und gleichzeitig die Kommunikation zwischen den GPU-Anwendung zu minimieren. SageMaker optimiert Ihre verteilten Trainingsaufträge auch durch Algorithmen, die die AWS-Datenverarbeitung und das AWS-Netzwerk vollständig nutzen, um eine nahezu lineare Skalierungseffizienz zu erzielen, mit der Sie Schulungen schneller abschließen können als manuelle Open Source-Implementierungen.

F: Was ist Managed Spot Training?

Mit Managed Spot Training mit Amazon SageMaker können Sie Ihre Machine Learning-Modelle mithilfe von Amazon EC2 Spot-Instances trainieren und gleichzeitig die Trainingskosten für Ihre Modelle um bis zu 90 % senken.

F: Wie verwende ich Managed Spot Training?

Sie aktivieren die Option Managed Spot Training, wenn Sie Ihre Trainingsaufträge einreichen, und Sie geben auch an, wie lange Sie auf Spot-Kapazität warten möchten. Amazon SageMaker verwendet dann Amazon EC2 Spot-Instances, um Ihre Aufgabe auszuführen und die Spot-Kapazität zu verwalten. Sie haben vollen Einblick in den Status Ihres Trainingsauftrags, sowohl während sie laufen als auch während sie auf Kapazität warten.

F: Wann sollte ich Managed Spot Training verwenden?

Managed Spot Training ist ideal, wenn Sie Flexibilität bei Ihren Trainingsläufen haben und wenn Sie die Kosten Ihrer Trainingsaufträge minimieren möchten. Mit Managed Spot Training können Sie die Kosten für das Training Ihrer Machine Learning-Modelle um bis zu 90 % zu senken.

F: Wie funktioniert Managed Spot Training?

Managed Spot Training verwendet Amazon EC2 Spot-Instances für Trainings und diese Instances können vorweggenommen werden, wenn AWS Kapazität benötigt. Daher können Managed Spot Trainings-Aufträge in kleinen Schritten ausgeführt werden, sobald die Kapazität verfügbar wird. Die Trainingsaufträge müssen nicht von Grund auf neu gestartet werden, wenn es zu einer Unterbrechung kommt, da Amazon SageMaker die Trainingsaufträge mit dem neuesten Modell-Checkpoint wieder aufnehmen kann. Die integrierten Rahmenbedingungen und die integrierten Computer Vision-Algorithmen mit SageMaker ermöglichen regelmäßige Checkpoints, und Sie können Checkpoints mit benutzerdefinierten Modellen aktivieren.

F: Muss ich das Managed Spot Training regelmäßig überprüfen?

Wir empfehlen regelmäßige Checkpoints als allgemein bewährtes Verfahren für lange laufende Trainingsaufträge. Dadurch wird verhindert, dass Ihre Managed Spot Trainings-Aufträge neu gestartet werden, wenn die Kapazität vorweggenommen wird. Wenn Sie Checkpoints aktivieren, setzt Amazon SageMaker Ihre Managed Spot Trainings-Aufträge vom letzten Checkpoint aus fort.

F: Wie berechnen Sie die Kosteneinsparungen mit Managed Spot Trainings-Aufträgen?

Sobald ein Managed Spot Training-Auftrag abgeschlossen ist, können Sie die Einsparungen in der AWS-Managementkonsole sehen und auch die Kosteneinsparungen als prozentuale Differenz zwischen der Dauer, für die der Trainingsauftrag ausgeführt wurde, und der Dauer, die Ihnen in Rechnung gestellt wurde, berechnen.

Unabhängig davon, wie oft Ihre Managed Spot Training-Aufträge unterbrochen werden, werden Sie nur einmal für die Dauer belastet, für die die Daten heruntergeladen wurden.

F: Welche Instances kann ich mit Managed Spot Training verwenden?

Managed Spot Training kann mit allen Instances verwendet werden, die in Amazon SageMaker unterstützt werden.

F: Welche AWS-Regionen werden mit Managed Spot Training unterstützt?

Managed Spot Training wird in allen AWS-Regionen unterstützt, in denen Amazon SageMaker derzeit verfügbar ist.

F: Gibt es Grenzen für die Größe der Datenmenge, die ich für das Training verwenden kann?

Es gibt keine festen Grenzen für die Größe der Datasets, die Sie für Schulungsmodelle mit Amazon SageMaker verwenden können.

F: Welche Datenquellen kann ich einfach in Amazon SageMaker importieren?

Sie können den Amazon S3-Speicherort Ihrer Trainingsdaten im Rahmen der Erstellung eines Trainingsjobs angeben.

F: Mit welchen Algorithmen generiert Amazon SageMaker Modelle?

Amazon SageMaker umfasst integrierte Algorithmen für lineare Regression, logistische Regression, K-Means-Clustering, Hauptkomponentenanalyse, Faktorisierungsmaschinen, Modellierung neuronaler Themen, latente Dirichlet-Zuordnung, Gradient-Boosted Trees, Sequence2Sequence, Zeitreihenprognose, Word2vec und Bildklassifizierung. SageMaker bietet außerdem optimierte Apache MXNet-, Tensorflow-, Chainer-, PyTorch-, Gluon-, Keras-, Horovod-, Scikit-learn- und Deep Graph Library-Container. Darüber hinaus unterstützt Amazon SageMaker Ihre benutzerdefinierten Trainingsalgorithmen, die über ein Docker-Image bereitgestellt werden, das der dokumentierten Spezifikation entspricht.

F: Was ist automatische Modelloptimierung?

Die meisten Algorithmen für Machine Learning machen verschiedene Parameter verfügbar, die wie der zugrunde liegende Algorithmus funktioniert. Diese Parameter werden meist als "Hyperparameter" bezeichnet. Von ihren Werten hängt ab, wie gut die trainierten Modelle sind. Bei der automatischen Modelloptimierung wird nach Hyperparametern eines Algorithmus gesucht, die ein optimales Modell erzeugen können.

F: Welche Modelle können mit der automatischen Modelloptimierung abgestimmt werden?

Sie können die automatische Modelloptimierung in Amazon SageMaker zusätzlich zu Algorithmen ausführen lassen. Voraussetzung ist, dass die Modelloptimierung wissenschaftlich realisierbar ist Amazon SageMaker. Zu den in Frage kommenden Algorithmen gehören beispielsweise integrierte SageMaker-Algorithmen, tief reichende neuronale Netzwerke oder jeder Algorithmus, den Sie als Docker-Image in SageMaker einführen.

F: Kann ich die automatische Modelloptimierung außerhalb von Amazon SageMaker anwenden?

Nein, derzeit nicht. Die beste Modelloptimierung genießen Sie mit Amazon SageMaker.

F: Was ist der zugrunde liegende Optimierungsalgorithmus?

Derzeit verwenden wir als Algorithmus für die Optimierung von Hyperparametern eine benutzerdefinierte Implementierung der bayes'schen Optimierungsmethodik. Diese zielt darauf ab, eine vom Kunden festgelegte Zielmetrik über den gesamten Optimierungsprozess zu optimieren. Die Implementierung prüft insbesondere die Zielmetrik der abgeschlossenen Trainingsaufgaben und leitet aus den gewonnenen Informationen die Hyperparameterkombination für das nächste Training ab.

F: Werden konkrete Hyperparameter für die Optimierung empfohlen?

Nein. Wie sich bestimmte Hyperparameter auf die Leistung des Modells auswirken, hängt von verschiedenen Faktoren ab. Es ist lässt sich kaum abschließend vorhersagen, ob ein Hyperparameter wichtiger ist als der andere und deshalb angepasst werden muss. Wenn in Amazon SageMaker Algorithmen integriert sind, geben wir an, ob ein Hyperparameter angepasst werden kann.

F: Wie lange dauert es, bis die Optimierung eines Hyperparameters abgeschlossen ist?

Wie lange eine Hyperparameteroptimierung dauert, hängt von verschiedenen Faktoren ab. So ist beispielsweise zu berücksichtigen, wie groß der Datenbestand ist, welcher Algorithmus zugrunde liegt und welche Werte die Hyperparameter aufweisen. Darüber hinaus können Kunden angeben, wie viele Trainings gleichzeitig laufen sollen und wie viele Trainings insgesamt durchgeführt werden sollen. All diese Entscheidungen wirken sich auf die Dauer der Hyperparameteroptimierung aus.

F: Kann ich mehrere Ziele gleichzeitig so optimieren, dass ein Modell schnell und zugleich präzise ist?

Nein, derzeit nicht. Derzeit müssen Sie eine einzelne Zielmetrik vorgeben, wenn Sie Ihren Algorithmuscode so optimieren oder abändern möchten, dass er eine neue Metrik (ein gewichteter Durchschnitt aus zwei oder mehreren nützlichen Kennzahlen) ausgibt und dass die Optimierung auf diese Zielmetrik optimal ausgerichtet wird.

F: Was hoch sind die Kosten für die automatische Modelloptimierung?

Für die eigentliche Hyperparameteroptimierung wird nichts berechnet. Kostenpflichtig sind jedoch die Trainings, die von der Hyperparameteroptimierung ausgelöst werden. Hierbei ist die Preisliste für Modelltraining ausschlaggebend.

F: Auf welcher Grundlage entscheide ich, ob Amazon SageMaker Autopilot oder die automatische Modelloptimierung zu verwenden ist?

Amazon SageMaker Autopilot automatisiert jeden Schritt in einem typischen Machine Learning-Workflow, einschließlich der Funktionsvorverarbeitung, der Algorithmusauswahl und der Hyperparameter-Optimierung. Der besondere Fokus liegt hier auf Anwendungsfällen in den Bereichen Klassifizierung und Regression. Die automatische Modelloptimierung auf der anderen Seite wurde für die Optimierung beliebiger Modelle konzipiert. Dabei ist es unerheblich, ob es auf integrierten Algorithmen, Deep Learning-Frameworks oder benutzerdefinierten Containern basiert. Im Austausch für die Flexibilität müssen Sie in einem manuellen Schritt den jeweiligen Algorithmus auswählen und die zu optimierenden Hyperparameter and die entsprechenden Suchbereiche bestimmen.

F: Was ist verstärkendes Lernen?

Verstärkendes Lernen ist eine Technik des Machine Learning, mit der ein Agent in einer interaktiven Umgebung durch Versuch und Irrtum lernen kann. Dabei fließt auch Feedback von seinen eigenen Aktionen und Erfahrungen ein.

F: Kann ich Modelle für das verstärkende Lernen in Amazon SageMaker trainieren?

Ja, Sie können Modelle für das verstärkende Lernen zusätzlich zu den Modellen für das überwachte und nicht überwachte Lernen in Amazon SageMaker trainieren.

F: Inwiefern unterscheidet sich das verstärkende Lernen vom überwachten Lernen?

Beim überwachten und beim verstärkenden Lernen wird die Zuweisung zwischen Eingabe und Ausgabe verwendet. Beim überwachten Lernen besteht das Feedback, das ein Agent erhält, aber aus einem korrekten Satz an Aktionen für das Ausführen einer Aufgabe. Das verstärkende Lernen verwendet dagegen ein verzögertes Feedback, bei dem Belohnungssignale optimiert werden, um ein langfristiges Ziel durch eine Folge von Aktionen zu gewährleisten.

F: Wann sollte ich das verstärkende Lernen verwenden?

Beim überwachten Lernen besteht das Ziel darin, basierend auf Mustern in den Trainingsdaten die richtige Antwort zu ermitteln. Beim nicht überwachten Lernen gilt es, Ähnlichkeiten und Unterschiede zwischen Datenpunkten zu finden. Dagegen soll beim verstärkenden Lernen herausgefunden werden, wie man ein gewünschtes Ergebnis erreichen kann, selbst wenn nicht klar ist, wie sich dieses Ergebnis erzielen lässt. Daher ist das verstärkende Lernen besser für die Unterstützung intelligenter Anwendungen geeignet, bei denen ein Agent autonome Entscheidungen treffen kann, z. B. bei Robotern, autonomen Fahrzeugen, Kühlung, industriellen Steuerungen usw.

F: Welche Arten von Umgebungen kann ich für das Trainieren von Modellen für das verstärkende Lernen verwenden?

Amazon SageMaker RL unterstützt viele verschiedene Umgebungen für das Trainieren von Modellen für das verstärkende Lernen. Sie können AWS-Services wie AWS RoboMaker, Open-Source-Umgebungen, benutzerdefinierte und mit Open AI Gym-Schnittstellen entwickelte Umgebungen und kommerzielle Simulationsumgebungen wie MATLAB und SimuLink verwenden.

F: Muss ich selbst RL-Agenten-Algorithmen schreiben, um Modelle für das verstärkende Lernen zu trainieren?

Nein. Amazon SageMaker RL umfasst Toolkits für das verstärkende Lernen wie Coach und Ray RLLib, die Implementierungen von RL-Agenten-Algorithmen wie DQN, PPO, A3C usw. bieten.

F: Kann ich meine eigenen Bibliotheken für das verstärkende Lernen und Algorithmusimplementierungen in Amazon SageMaker RL ausführen?

Ja, Sie können Ihre eigenen Bibliotheken für das verstärkende Lernen und Algorithmusimplementierungen in Docker-Containern einbringen und sie in Amazon SageMaker RL ausführen.

F: Sind verteilte Rollouts mit Amazon SageMaker RL möglich?

Ja. Sie können sogar ein heterogenes Cluster auswählen, bei dem das Training auf einer GPU-Instance und die Simulationen auf mehreren CPU-Instances ausgeführt werden können.

Modelle bereitstellen

F: Was ist die Amazon SageMaker Modellüberwachung?

Mit der Amazon SageMaker Modellüberwachung können Entwickler Konzeptabweichungen erkennen und beheben. SageMaker Model Monitor erkennt automatisch Konzeptabweichungen in implementierten Modellen und bietet detaillierte Warnungen, mit denen die Ursache des Problems ermittelt werden kann. Alle in SageMaker geschulten Modelle geben automatisch wichtige Messdaten aus, die in SageMaker Studio erfasst und angezeigt werden können. In SageMaker Studio können Sie konfigurieren, welche Daten erfasst werden sollen, wie diese angezeigt werden und wann Warnungen empfangen werden sollen.

F: Kann ich auf die Infrastruktur zugreifen, auf der Amazon SageMaker ausgeführt wird?

Nein. Amazon SageMaker betreibt die Datenverarbeitungs-Infrastruktur für Sie und ermöglicht dort Zustandsprüfungen, die Anwendung von Sicherheitspatches und die Durchführung sonstiger Routineaufgaben der Wartung. Sie können die Modellartefakte auch aus dem Training mit benutzerdefinierten Inferenzcodes in Ihrer eigenen Hosting-Umgebung bereitstellen.

F: Wie skaliere ich die Größe und Leistung eines Amazon SageMaker-Modells in der Produktion?

Durch das Amazon SageMaker-Hosting mit Application Auto Scaling wird automatisch auf die Leistung skaliert, die für Ihre Anwendung erforderlich ist. Darüber hinaus können Sie die Nummer und den Typ der Instance manuell ändern, ohne dass es zu Ausfallzeiten kommt, indem Sie die Endpunktkonfiguration ändern.

F: Wie überwache ich meine Amazon SageMaker-Produktionsumgebung?

Amazon SageMaker sendet Leistungsmesswerte an Amazon CloudWatch Metrics, sodass Sie Messwerte verfolgen, Alarme festlegen und automatisch auf Änderungen im Produktionsdatenverkehr reagieren können. Darüber hinaus schreibt Amazon SageMaker Protokolle in Amazon CloudWatch Logs, damit Sie Ihre Produktionsumgebung überwachen und Fehler beheben können.

F: Welche Arten von Modellen können mit Amazon SageMaker gehostet werden?

Mit Amazon SageMaker können alle Modelle gehostet werden, die der dokumentierten Spezifikation für Inferenz-Docker-Image entsprechen. Dazu gehören Modelle, die aus Amazon SageMaker-Modellartefakten und Inferenzcode erstellt wurden.

F: Wie viele gleichzeitige Echtzeit-API-Anforderungen unterstützt Amazon SageMaker?

Amazon SageMaker wurde dafür konzipiert, eine große Anzahl von Transaktionen pro Sekunde zu skalieren. Die genaue Anzahl hängt vom implementierten Modell und der Anzahl und Art der Instances ab, für die das Modell bereitgestellt wird.

F: Was ist Batch-Transformation?

Durch die Batch-Transformation können Sie anhand von großen oder kleinen Daten-Batches Prognosen erstellen. Es ist dabei nicht erforderlich, den Datensatz in einzelne Blöcke zu unterteilen oder Echtzeitendpunkte zu verwalten. Sie können mit einer einfachen API Prognosen für eine große Anzahl von Datensätzen anfordern und diese Daten leicht und schnell umwandeln

F: Was ist Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager ist eine Funktion in Amazon SageMaker, mit der Machine Learning-Modelle auf Flotten von Edge-Geräten wie Smart-Kameras, Robotern, PCs und Mobilgeräten einfacher optimiert, gesichert, überwacht und gewartet werden können. Mit SageMaker Edge Manager können ML-Entwickler ML-Modelle auf einer Vielzahl von Edge-Geräten in großem Maßstab betreiben.

F: Was sind die ersten Schritte mit Amazon SageMaker Edge Manager?

Um mit SageMaker Edge Manager zu beginnen, müssen Sie Ihre trainierten ML-Modelle in der Cloud kompilieren und verpacken, Ihre Geräte registrieren und Ihre Geräte mit dem SageMaker Edge Manager SDK vorbereiten. Um Ihr Modell für die Bereitstellung vorzubereiten, verwendet SageMaker Edge Manager SageMaker Neo, um Ihr Modell für Ihre Ziel-Edge-Hardware zu kompilieren. Sobald ein Modell kompiliert wurde, signiert SageMaker Edge Manager das Modell mit einem von AWS generierten Schlüssel und verpackt das Modell mit seiner Laufzeit und Ihren erforderlichen Anmeldeinformationen, um sich auf die Bereitstellung vorzubereiten. Auf der Geräteseite registrieren Sie Ihr Gerät bei SageMaker Edge Manager, laden das SageMaker Edge Manager SDK herunter und befolgen die Anweisungen zum Installieren des SageMaker Edge Manager-Agenten auf Ihren Geräten. Das Tutorial-Notebook enthält ein schrittweises Beispiel dafür, wie Sie die Modelle vorbereiten und Ihre Modelle auf Edge-Geräten mit SageMaker Edge Manager verbinden können.

F: Welche Geräte werden von SageMaker Edge Manager unterstützt?

Amazon SageMaker Edge Manager unterstützt gängige CPU- (ARM, x86), GPU- (ARM, Nvidia) Geräte mit Linux- und Windows-Betriebssystemen. Im Laufe der Zeit wird SageMaker Edge Manager erweitert, um mehr eingebettete Prozessoren und mobile Plattformen zu unterstützen, die auch von SageMaker Neo unterstützt werden.

F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker Edge Manager verwenden zu können?

Nein, müssen Sie nicht. Sie können Ihre Modelle an anderer Stelle trainieren oder ein vorab geschultes Modell von Open Source oder von Ihren Modellherstellern verwenden.

F: Muss ich mein Modell mit Amazon SageMaker Neo trainieren, um Amazon SageMaker Edge Manager verwenden zu können?

Ja, müssen Sie. Amazon SageMaker Neo konvertiert und kompiliert Ihre Modelle in eine ausführbare Datei, die Sie dann verpacken und auf Ihren Edge-Geräten bereitstellen können. Sobald das Modellpaket bereitgestellt ist, entpackt der Amazon SageMaker Edge Manager-Agent das Modellpaket und führt das Modell auf dem Gerät aus.

F: Wie stelle ich Modelle auf den Edge-Geräten bereit?

Amazon SageMaker Edge Manager speichert das Modellpaket in Ihrem angegebenen Amazon S3-Bucket. Sie können die von AWS IoT Greengrass bereitgestellte OTA-Bereitstellungsfunktion (Over-the-Air) oder einen anderen Bereitstellungsmechanismus Ihrer Wahl verwenden, um das Modellpaket von Ihrem S3-Bucket auf den Geräten bereitzustellen.

F: Wie unterscheidet sich das Amazon SageMaker Edge Manager SDK von der SageMaker Neo-Laufzeit (dlr)?

Neo dlr ist eine Open Source-Laufzeit, die nur Modelle ausführt, die vom Amazon SageMaker Neo-Service kompiliert wurden. Im Vergleich zur Open Source-DLR enthält das SageMaker Edge Manager SDK einen On-Device-Agenten für Unternehmen mit zusätzlichen Funktionen für Sicherheit, Modellverwaltung und Modellbereitstellung. Das SageMaker Edge Manager SDK eignet sich für die Produktionsbereitstellung in großem Maßstab.

F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS IoT Greengrass?

Amazon SageMaker Edge Manager und AWS IoT Greengrass können in Ihrer IoT-Lösung zusammenarbeiten. Sobald Ihr ML-Modell mit SageMaker Edge Manager gepackt ist, können Sie die OTA-Aktualisierungsfunktion von AWS IoT Greengrass verwenden, um das Modellpaket auf Ihrem Gerät bereitzustellen. Mit AWS IoT Greengrass können Sie Ihre IoT-Geräte remote überwachen, während Sie mit SageMaker Edge Manager die ML-Modelle auf den Geräten überwachen und warten können.

F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS Panorama? Wann sollten Sie Amazon SageMaker Edge Manager im Vergleich zu AWS Panorama verwenden?

AWS bietet die größte Breite und Tiefe der Funktionen zum Ausführen von Modellen auf Edge-Geräten. Wir verfügen über Services zur Unterstützung einer Vielzahl von Anwendungsfällen, einschließlich Computervision, Spracherkennung und vorausschauender Wartung.

Für Unternehmen, die Computervision auf Edge-Geräten wie Kameras und Geräten ausführen möchten, können Sie AWS Panorama verwenden. Panorama bietet einsatzbereite Computervisionsanwendungen für Edge-Geräte. Der Einstieg in AWS Panorama ist einfach, indem Sie sich bei der Cloud-Konsole anmelden, das Modell angeben, das Sie in Amazon S3 oder SageMaker verwenden möchten, und anschließend Geschäftslogik als Python-Skript schreiben. AWS Panorama kompiliert das Modell für das Zielgerät und erstellt ein Anwendungspaket, damit es mit nur wenigen Klicks auf Ihren Geräten bereitgestellt werden kann. Darüber hinaus können ISVs, die ihre eigenen benutzerdefinierten Anwendungen erstellen möchten, das AWS Panorama SDK verwenden, und Gerätehersteller können das Geräte-SDK verwenden, um ihre Geräte für AWS Panorama zu zertifizieren.

Kunden, die ihre eigenen Modelle erstellen und die Modellfunktionen genauer steuern möchten, können Amazon SageMaker Edge Manager verwenden. SageMaker Edge Manager ist ein verwalteter Service zum Vorbereiten, Ausführen, Überwachen und Aktualisieren von ML-Modellen (Machine Learning) für Flotten von Edge-Geräten wie Smart-Kameras, Smart-Lautsprechern und Robotern für alle Anwendungsfälle wie die Verarbeitung natürlicher Sprache, Betrugserkennung und vorausschauende Wartung. SageMaker Edge Manager ist für ML-Edge-Entwickler gedacht, die die Kontrolle über ihr Modell wünschen, einschließlich der Entwicklung verschiedener Modellfunktionen und der Überwachung von Modellen auf Drift. Jeder ML Edge-Entwickler kann SageMaker Edge Manager über die SageMaker-Konsole und die SageMaker-APIs verwenden. SageMaker Edge Manager bietet die Funktionen von SageMaker zum Erstellen, Trainieren und Bereitstellen von Modellen in der Cloud für Edge-Geräte.

F: In welchen AWS-Regionen ist Amazon SageMaker Edge Manager verfügbar?

Amazon SageMaker Edge Manager ist in 6 AWS-Regionen US-Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), EU (Irland), EU (Frankfurt) und Asien-Pazifik (Tokio) verfügbar; siehe AWS-Regions-Tabelle.

F: Was ist Amazon SageMaker Neo?

Mit Amazon SageMaker Neo können Entwickler ML-Modelle (Machine Learning) optimieren, um Rückschlüsse auf SageMaker in der Cloud und unterstützte Geräte am Rande zu ziehen. SageMaker Neo optimiert automatisch Modelle, die mit gängigen Deep-Learning-Frameworks entwickelt wurden und auf mehreren Hardwareplattformen bereitgestellt werden können. Optimierte Modelle laufen bis zu 25-mal schneller und verbrauchen im Vergleich zu einem Rahmen wie TensorFlow oder PyTorch nur 1/10 der Stellfläche.

F: Was ist Amazon SageMaker Neo?

Mit Amazon SageMaker Neo ist es möglich, Machine Learning-Modelle einmal zu trainieren und dann überall in der Cloud und am Edge auszuführen. SageMaker Neo optimiert automatisch Modelle, die mit gängigen Deep-Learning-Frameworks entwickelt wurden und auf mehreren Hardwareplattformen bereitgestellt werden können. Optimierte Modelle können mit bis zu einer doppelten Geschwindigkeit ausgeführt werden und verbrauchen weniger als ein Zehntel der Ressourcen eines typischen Modells für Machine Learning.

F: Was sind die ersten Schritte mit Amazon SageMaker Neo?

Melden Sie sich für die ersten Schritte mit Amazon SageMaker Neo bei der Amazon SageMaker-Konsole an, wählen Sie ein trainiertes Modell aus, folgen Sie dem Beispiel zum Kompilieren von Modellen, und stellen Sie das entstandene Modell auf Ihrer Ziel-Hardwareplattform bereit.

F: Was sind die Hauptkomponenten der Amazon SageMaker Neo?

Amazon SageMaker Neo umfasst zwei wesentliche Hauptkomponenten – einen Compiler und eine Laufzeit. Zuerst liest der Neo-Compiler Modelle, die von unterschiedlichen Frameworks exportiert wurden. Anschließend wandelt er die Framework-spezifischen Funktionen und Operationen in eine Framework-unabhängige Zwischenrepräsentation um. Danach führt er eine Reihe von Optimierungen aus. Im Anschluss erzeugt der Compiler Binärcode für die optimierten Operationen und schreibt sie in eine freigegebene Objektbibliothek. Außerdem speichert der Compiler die Modelldefinition und Parameter in separaten Dateien. Während der Ausführung lädt die Neo-Laufzeit die vom Compiler erzeugten Artefakte – Modelldefinition, Parameter und die freigegebene Objektbibliothek zur Modellausführung.

F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker zur Konvertierung des Modells verwenden zu können?

Nein. Sie können Modelle an anderer Stelle trainieren und Neo dazu verwenden, sie für Amazon SageMaker ML-Instances oder von AWS IoT Greengrass unterstützte Geräte zu optimieren.

F: Welche Modelle unterstützt Amazon SageMaker Neo?

Derzeit unterstützt Amazon SageMaker Neo die gängigsten Deep-Learning-Modelle, die Computer-Vision-Anwendungen unterstützen, und die gängigsten Entscheidungsbaum-Modelle, die heute in Amazon SageMaker verwendet werden. Neo optimiert die Leistung von AlexNet-, ResNet-, VGG-, Inception-, MobileNet-, SqueezeNet- und DenseNet-Modellen, die in MXNet und TensorFlow trainiert wurden, und von Klassifizierungs- und Random Cut Forest-Modellen, die in XGBoost trainiert wurden.

F: Welche Hardwareplattformen unterstützt Amazon SageMaker Neo?

Die Listen der unterstützten Cloud-Instances, Edge-Geräte und Rahmenversionen finden Sie in der Amazon SageMaker Neo-Dokumentation.

F: In welchen AWS-Regionen ist Amazon SageMaker Neo verfügbar?

Um eine Liste der unterstützten Regionen zu sehen, sehen Sie sich die AWS-Regionstabelle an.

Weitere Informationen zu den Amazon SageMaker-Preisen

Zur Seite mit den Preisen
Sind Sie startbereit?
Registrieren
Haben Sie Fragen?
Kontakt