Allgemeines

F: Was ist Amazon SageMaker?

Amazon SageMaker ist ein vollständig verwalteter Dienst, der jedem Entwickler und Datenwissenschaftler die Möglichkeit bietet, schnell Modelle für Machine Learning (ML) zu erstellen, zu trainieren und bereitzustellen. SageMaker beseitigt die harte Arbeit in jedem Schritt des Machine Learning-Prozess, um die Entwicklung hochwertiger Modelle zu vereinfachen.

F: In welchen Regionen ist Amazon SageMaker verfügbar?

Eine Liste der unterstützten Amazon SageMaker AWS-Regionen finden Sie in der AWS-Regionstabelle. Sie enthält Informationen zur gesamten globalen AWS-Infrastruktur. Weitere Informationen finden Sie außerdem unter Regionen und Endpunkte in der Allgemeinen AWS-Referenz.

F: Wie ist die Serviceverfügbarkeit von Amazon SageMaker?

Amazon SageMaker ist für hohe Verfügbarkeit konzipiert. Es gibt keine Wartungsfenster und keine geplanten Ausfallzeiten. SageMaker-APIs werden in den bewährten Hochverfügbarkeits-Rechenzentren von Amazon ausgeführt. Die Replizierung des Service-Stacks arbeitet an drei Standorten in jeder AWS-Region und bietet so eine Fehlertoleranz bei eventuellen Ausfällen von Server oder Availability Zone.

F: Welche Sicherheitsmaßnahmen gibt es bei Amazon SageMaker?

Amazon SageMaker stellt sicher, dass ML-Modellartefakte und andere Systembestandteile sowohl bei der Übertragung als auch im inaktiven Zustand verschlüsselt sind. Anforderungen an die SageMaker-API und die Konsole werden über eine sichere SSL-Verbindung gesendet. Sie übergeben AWS Identity and Access Management-Rollen an SageMaker, um Berechtigungen für den Zugriff auf Ressourcen in Ihrem Namen für Schulung und Implementierung bereitzustellen. Sie können verschlüsselte S3-Buckets für Modellartefakte und Daten verwenden sowie einen KMS-Schlüssel an SageMaker-Notebooks, Trainingsaufgaben und Endpunkte übergeben, um das angehängte ML-Speicher-Volume zu verschlüsseln.

F: Wie sichert Amazon SageMaker meinen Code?

Amazon SageMaker speichert Code in ML-Speicher-Volumes, die von Sicherheitsgruppen gesichert und optional verschlüsselt werden.

F: Wie wird die Verwendung von Amazon SageMaker berechnet?

Sie zahlen für ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie zum Hosten des Notebooks, Trainieren des Modells, Treffen von Vorhersagen und Protokollieren von Ausgaben nutzen. Mit Amazon SageMaker können Sie die Anzahl und den Typ der Instances auswählen, die für das gehostete Notebook, Trainings und das Modell-Hosting verwendet werden. Sie zahlen nur für den tatsächlichen Gebrauch. Es fallen keine Mindestgebühren oder Vorauszahlungen an. Einzelheiten finden Sie auf der Seite mit den Amazon SageMaker-Preisen.

F: Was ist, wenn ich über meine eigene Notebook-, Trainings- oder Hosting-Umgebung verfüge?

Amazon SageMaker bietet einen vollständigen, durchgehenden Workflow, aber Sie können Ihre vorhandenen Tools weiterhin mit SageMaker verwenden. Sie können die Ergebnisse jeder Phase ganz einfach gemäß Ihren Geschäftsanforderungen in oder aus SageMaker übertragen.

F: Wird R mit Amazon SageMaker unterstützt?

Ja, R wird von Amazon SageMaker unterstützt. Sie können R innerhalb von SageMaker Notebook-Instances verwenden, die einen vorinstallierten R-Kernel und die netzförmig angelegte (Reticulate-)Bibliothek enthalten. Reticulate bietet eine R-Schnittstelle für das Amazon SageMaker Python SDK, die es Machine-Learning-Anwendern ermöglicht, R-Modelle zu erstellen, zu trainieren, abzustimmen und einzusetzen. 

F: Was ist Amazon SageMaker Studio?

Amazon SageMaker Studio bietet eine einzige webbasierte visuelle Oberfläche, auf der Sie alle ML-Entwicklungsschritte ausführen können. Mit SageMaker Studio erhalten Sie vollständigen Zugriff, Kontrolle und Einblick in alle Schritte, die zum Erstellen, Trainieren und Bereitstellen von Modellen erforderlich sind. Sie können schnell Daten hochladen, neue Notizbücher erstellen, Modelle schulen und optimieren, zwischen den Schritten hin und her wechseln, um Experimente anzupassen, Ergebnisse zu vergleichen und Modelle an einem Ort für die Produktion bereitzustellen, wodurch Sie viel produktiver werden. Alle ML-Entwicklungsaktivitäten, einschließlich Notebooks, Experimentverwaltung, automatische Modellerstellung, Debugging und Profilerstellung sowie Modellabweichungserkennung, können über die einheitliche visuelle Oberfläche von SageMaker Studio ausgeführt werden.

F: Was ist Amazon SageMaker Autopilot

Amazon SageMaker Autopilot ist die erste automatisierte Machine Learning-Funktion der Branche, mit der Sie Ihre ML-Modelle vollständig steuern und einsehen können. SageMaker Autopilot überprüft automatisch die Rohdaten, wendet Feature-Prozessoren an, wählt die besten Algorithmen aus, trainiert und optimiert mehrere Modelle, verfolgt deren Leistung und ordnet die Modelle mit nur wenigen Klicks anhand der Leistung. Das Ergebnis ist das Modell mit der besten Leistung, das Sie zu einem Bruchteil der für das Trainieren des Modells normalerweise erforderlichen Zeit bereitstellen können. Sie erhalten einen vollständigen Überblick darüber, wie das Modell erstellt wurde und was darin enthalten ist, und SageMaker Autopilot lässt sich in Amazon SageMaker Studio integrieren. Sie können bis zu 50 verschiedene Modelle untersuchen, die von SageMaker Autopilot in SageMaker Studio generiert wurden, sodass Sie ganz einfach das beste Modell für Ihren Anwendungsfall auswählen können. SageMaker Autopilot kann von Personen ohne Erfahrung mit Machine Learning verwendet werden, um auf einfache Weise ein Modell zu erstellen, oder von erfahrenen Entwicklern, um schnell ein Basismodell zu entwickeln, auf dem Teams weiter iterieren können.

F: Inwieweit unterscheidet sich Amazon SageMaker Autopilot von vertikalen KI-Services wie Amazon Personalize oder Amazon Forecast?

Während sich Amazon Personalize und Amazon Forecast speziell auf personalisierte Anwendungsfälle im Rahmen von Empfehlungen und Prognosen beziehen, ist Amazon SageMaker Autopilot eine generische, automatische Machine Learning-Lösung für Klassifizierung und Regressionsprobleme, z. B. bei Betrugserkennung, Wanderungsanalysen und gezieltem Marketing. Bei Personalize und Forecast liegt der Fokus auf der Vereinfachung der durchgehenden Erfahrung durch das Angebot von Trainings- und Modell-Hosting in einem Paket. Sie können Modelle über Amazon SageMaker Autopilot trainieren und erhalten einen umfassenden Zugriff auf die Modelle sowie auf die Pipelines, von denen diese Modelle generiert werden. Sie können dann die Modelle in der Hosting-Umgebung Ihrer Wahl bereitstellen oder die Modelle zur Verbesserung der Modellqualität iterieren.

F: Welche integrierten Algorithmen werden in Amazon SageMaker Autopilot unterstützt?

Amazon SageMaker Autopilot unterstützt 2 integrierte Algorithmen beim Start: XGBoost und Linear Learner.

F: Wird verteiltes Training von Amazon SageMaker Autopilot unterstützt?

Ja. Bei allen in Amazon SageMaker Autopilot integrierten Algorithmen ist verteiltes Training vorkonfiguriert.

F: Kann ich eine Amazon SageMaker Autopilot-Aufgabe manuell anhalten?

Ja. Sie können eine Aufgabe jederzeit anhalten. Wenn eine Amazon SageMaker Autopilot-Aufgabe angehalten wurde, werden alle laufenden Versuche ebenfalls angehalten, und es werden keine neuen Versuche gestartet.

Modelle aufbauen

F: Was ist Amazon SageMaker Studio Notebooks?

Amazon SageMaker Studio Notebook ist ein neues gemeinschaftliches, flexibles, verwaltetes Jupyter-Notebook, das Teil von Amazon SageMaker Studio ist, einer vollständig integrierten Entwicklungsumgebung für Machine Learning.

F: Inwiefern unterscheiden sich SageMaker Studio Notebooks von den instancebasierten Notebooks, die angeboten werden?

SageMaker Studio Notebooks bietet einige wichtige Merkmale, die ihn von den instancebasierten Notebooks unterscheiden. Mit der neuen Notebook-Erfahrung können Sie jetzt Notebooks schnell starten, ohne dass Sie eine Instance manuell bereitstellen und warten müssen, bis sie einsatzbereit ist. Die Startzeit beim Start der Benutzeroberfläche zum Lesen und Ausführen eines Notebooks ist kürzer als bei den instancebasierten Notebooks.

Sie haben auch die Flexibilität, jederzeit aus einer großen Sammlung von Instance-Typen innerhalb der Benutzeroberfläche zu wählen. Sie brauchen nicht mehr zur AWS-Konsole zu gehen, um neue Instances zu starten und über Ihre Notebooks zu portieren.

Jeder Benutzer hat ein isoliertes Home-Verzeichnis unabhängig von einer bestimmten Instance. Dieses Verzeichnis wird beim Start automatisch in alle Notebook-Server und Kernel gemountet, so dass Sie auf Ihre Notebooks und andere Dateien zugreifen können, auch wenn Sie die Instance wechseln, um Ihre Notebooks anzuzeigen und auszuführen.

SageMaker Studio Notebooks sind in AWS SSO integriert, so dass es einfach ist, die organisatorischen Zugangsdaten für den Zugriff auf die Notebooks zu verwenden. Die gemeinsame Nutzung von Notebooks ist eine integrierte Funktion in SageMaker Studio Notebooks. Sie können Ihre Notebooks auch mit einem einzigen Klick für Ihre Kollegen freigeben.

F: Welche Arten von Notebooks werden unterstützt?

Derzeit werden Juypter-Notebooks unterstützt.

F: Wie funktioniert Amazon SageMaker Studio Notebooks?

Amazon SageMaker Studio Notebooks sind One-Click-Jupyter-Notebooks, die sich schnell hochfahren lassen. Die zugrunde liegenden Rechenressourcen sind voll elastisch, sodass Sie die verfügbaren Ressourcen einfach nach oben oder unten wählen können und die Änderungen automatisch im Hintergrund stattfinden, ohne Ihre Arbeit zu unterbrechen. SageMaker ermöglicht auch die Freigabe von Notebooks mit einem Klick. Sie können Notebooks problemlos mit anderen teilen und diese erhalten genau dasselbe Notebook, das am selben Ort gespeichert ist.

Mit SageMaker Studio Notebooks können Sie sich mit Ihren Unternehmensdaten über AWS SSO anmelden. Die gemeinsame Nutzung von Notebooks innerhalb und zwischen Teams ist einfach, da die für den Betrieb eines Notebooks erforderlichen Abhängigkeiten automatisch in den Arbeits-Images verfolgt werden, die bei der gemeinsamen Nutzung des Notebooks mit diesem gekapselt werden.

F: Wie funktioniert die Zusammenarbeit von Amazon SageMaker Studio Notebooks mit anderen AWS-Services?

Amazon SageMaker Studio Notebooks gewährt Zugriff auf alle SageMaker-Funktionen, darunter verteiltes Training, Batch-Transformation, Hosting und Experimentverwaltung. Sie können auf andere Services wie Datensätze in Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR, oder AWS Lake Formation aus SageMaker Notebooks heraus zugreifen.

F: Was ist Amazon SageMaker Ground Truth?

Amazon SageMaker Ground Truth bietet automatisiertes Daten-Labeling mit Hilfe von Machine Learning. SageMaker Ground Truth wählt zunächst ein zufälliges Datensample aus und sendet dieses zum Labeling an Amazon Mechanical Turk. Anhand der Ergebnisse wird ein Labeling-Modell trainiert, das zum automatischen Labeling eines weiteren Datensamples verwendet wird. Die Labels werden jedoch erst festgeschrieben, wenn das Modell die Daten mit einer Zuverlässigkeit von mindestens einem von Ihnen definierten Grenzwert kennzeichnen kann. Bei Nichterreichen dieses Grenzwerts werden die Daten an menschliche Kennzeichner gesendet. Aus einem Teil der von Menschen gekennzeichneten Daten wird wiederum ein neues Trainings-Dataset für das Labeling-Modell generiert, mit dem das Modell automatisch neu trainiert wird, um seine Genauigkeit zu verbessern. Dieser Prozess wiederholt sich mit jedem neu gekennzeichneten Rohdatensample. Bei jeder Wiederholung lernt das Modell dazu und wird immer präziser im Labeling der Rohdaten, sodass immer weniger Daten an Menschen gesendet werden müssen.

Modelle trainieren

F: Was sind Amazon SageMaker-Experimente?

Mit Amazon SageMaker-Experimenten können Sie Iterationen von Modellen für Machine Learning organisieren und nachverfolgen. Mit SageMaker-Experimenten können Sie Iterationen verwalten, indem Sie die Eingabeparameter, Konfigurationen und Ergebnisse automatisch erfassen und als „Experimente“ speichern. Sie können in der visuellen Oberfläche von SageMaker Studio arbeiten, in der Sie aktive Experimente durchsuchen, nach früheren Experimenten anhand ihrer Eigenschaften suchen, frühere Experimente mit ihren Ergebnissen überprüfen und die Testergebnisse visuell vergleichen können.

F: Was ist Amazon SageMaker Debugger?

Amazon SageMaker Debugger macht den Trainingsprozess transparenter, indem während des Trainings automatisch Echtzeitmessdaten erfasst werden, z. B. Training und Validierung, Verwirrungsmatrizen und Lernverläufe, um die Modellgenauigkeit zu verbessern.

Die Metriken von SageMaker Debugger können zum besseren Verständnis in Amazon SageMaker Studio visualisiert werden. SageMaker Debugger kann auch Warnungen und Fehlerbehebungshinweise generieren, wenn allgemeine Trainingsprobleme festgestellt werden. Mit SageMaker Debugger können Sie die Funktionsweise eines Modells interpretieren und so einen frühen Schritt in Richtung Erklärbarkeit des Modells darstellen.

F: Was ist Managed Spot Training?

Mit Managed Spot Training mit Amazon SageMaker können Sie Ihre Machine Learning-Modelle mithilfe von Amazon EC2 Spot-Instances trainieren und gleichzeitig die Trainingskosten für Ihre Modelle um bis zu 90 % senken.

F: Wie verwende ich Managed Spot Training?

Sie aktivieren die Option Managed Spot Training, wenn Sie Ihre Trainingsaufträge einreichen, und Sie geben auch an, wie lange Sie auf Spot-Kapazität warten möchten. Amazon SageMaker verwendet dann Amazon EC2 Spot-Instances, um Ihre Aufgabe auszuführen und die Spot-Kapazität zu verwalten. Sie haben vollen Einblick in den Status Ihres Trainingsauftrags, sowohl während sie laufen als auch während sie auf Kapazität warten.

F: Wann sollte ich Managed Spot Training verwenden?

Managed Spot Training ist ideal, wenn Sie Flexibilität bei Ihren Trainingsläufen haben und wenn Sie die Kosten Ihrer Trainingsaufträge minimieren möchten. Mit Managed Spot Training können Sie die Kosten für das Training Ihrer Machine Learning-Modelle um bis zu 90 % zu senken.

F: Wie funktioniert Managed Spot Training?

Managed Spot Training verwendet Amazon EC2 Spot-Instances für Trainings und diese Instances können vorweggenommen werden, wenn AWS Kapazität benötigt. Daher können Managed Spot Trainings-Aufträge in kleinen Schritten ausgeführt werden, sobald die Kapazität verfügbar wird. Die Trainingsaufträge müssen nicht von Grund auf neu gestartet werden, wenn es zu einer Unterbrechung kommt, da Amazon SageMaker die Trainingsaufträge mit dem neuesten Modell-Checkpoint wieder aufnehmen kann. Die integrierten Rahmenbedingungen und die integrierten Computer Vision-Algorithmen mit SageMaker ermöglichen regelmäßige Checkpoints, und Sie können Checkpoints mit benutzerdefinierten Modellen aktivieren.

F: Muss ich das Managed Spot Training regelmäßig überprüfen?

Wir empfehlen regelmäßige Checkpoints als allgemein bewährtes Verfahren für lange laufende Trainingsaufträge. Dadurch wird verhindert, dass Ihre Managed Spot Trainings-Aufträge neu gestartet werden, wenn die Kapazität vorweggenommen wird. Wenn Sie Checkpoints aktivieren, setzt Amazon SageMaker Ihre Managed Spot Trainings-Aufträge vom letzten Checkpoint aus fort.

F: Wie berechnen Sie die Kosteneinsparungen mit Managed Spot Trainings-Aufträgen?

Sobald ein Managed Spot Training-Auftrag abgeschlossen ist, können Sie die Einsparungen in der AWS-Managementkonsole sehen und auch die Kosteneinsparungen als prozentuale Differenz zwischen der Dauer, für die der Trainingsauftrag ausgeführt wurde, und der Dauer, die Ihnen in Rechnung gestellt wurde, berechnen.

Unabhängig davon, wie oft Ihre Managed Spot Training-Aufträge unterbrochen werden, werden Sie nur einmal für die Dauer belastet, für die die Daten heruntergeladen wurden.

F: Welche Instances kann ich mit Managed Spot Training verwenden?

Managed Spot Training kann mit allen Instances verwendet werden, die in Amazon SageMaker unterstützt werden.

F: Welche AWS-Regionen werden mit Managed Spot Training unterstützt?

Managed Spot Training wird in allen AWS-Regionen unterstützt, in denen Amazon SageMaker derzeit verfügbar ist.

F: Gibt es Grenzen für die Größe der Datenmenge, die ich für das Training verwenden kann?

Es gibt keine festen Grenzen für die Größe der Datasets, die Sie für Schulungsmodelle mit Amazon SageMaker verwenden können.

F: Welche Datenquellen kann ich einfach in Amazon SageMaker importieren?

Sie können den Amazon S3-Speicherort Ihrer Trainingsdaten im Rahmen der Erstellung eines Trainingsjobs angeben.

F: Mit welchen Algorithmen generiert Amazon SageMaker Modelle?

Amazon SageMaker umfasst integrierte Algorithmen für lineare Regression, logistische Regression, K-Means-Clustering, Hauptkomponentenanalyse, Faktorisierungsmaschinen, Modellierung neuronaler Themen, latente Dirichlet-Zuordnung, Gradient-Boosted Trees, Sequence2Sequence, Zeitreihenprognose, Word2vec und Bildklassifizierung. SageMaker bietet außerdem optimierte Apache MXNet-, Tensorflow-, Chainer-, PyTorch-, Gluon-, Keras-, Horovod-, Scikit-learn- und Deep Graph Library-Container. Darüber hinaus unterstützt Amazon SageMaker Ihre benutzerdefinierten Trainingsalgorithmen, die über ein Docker-Image bereitgestellt werden, das der dokumentierten Spezifikation entspricht.

F: Was ist automatische Modelloptimierung?

Die meisten Algorithmen für Machine Learning machen verschiedene Parameter verfügbar, die wie der zugrunde liegende Algorithmus funktioniert. Diese Parameter werden meist als "Hyperparameter" bezeichnet. Von ihren Werten hängt ab, wie gut die trainierten Modelle sind. Bei der automatischen Modelloptimierung wird nach Hyperparametern eines Algorithmus gesucht, die ein optimales Modell erzeugen können.

F: Welche Modelle können mit der automatischen Modelloptimierung abgestimmt werden?

Sie können die automatische Modelloptimierung in Amazon SageMaker zusätzlich zu Algorithmen ausführen lassen. Voraussetzung ist, dass die Modelloptimierung wissenschaftlich realisierbar ist Amazon SageMaker. Zu den in Frage kommenden Algorithmen gehören beispielsweise integrierte SageMaker-Algorithmen, tief reichende neuronale Netzwerke oder jeder Algorithmus, den Sie als Docker-Image in SageMaker einführen.

F: Kann ich die automatische Modelloptimierung außerhalb von Amazon SageMaker anwenden?

Nein, derzeit nicht. Die beste Modelloptimierung genießen Sie mit Amazon SageMaker.

F: Was ist der zugrunde liegende Optimierungsalgorithmus?

Derzeit verwenden wir als Algorithmus für die Optimierung von Hyperparametern eine benutzerdefinierte Implementierung der bayes'schen Optimierungsmethodik. Diese zielt darauf ab, eine vom Kunden festgelegte Zielmetrik über den gesamten Optimierungsprozess zu optimieren. Die Implementierung prüft insbesondere die Zielmetrik der abgeschlossenen Trainingsaufgaben und leitet aus den gewonnenen Informationen die Hyperparameterkombination für das nächste Training ab.

F: Werden konkrete Hyperparameter für die Optimierung empfohlen?

Nein. Wie sich bestimmte Hyperparameter auf die Leistung des Modells auswirken, hängt von verschiedenen Faktoren ab. Es ist lässt sich kaum abschließend vorhersagen, ob ein Hyperparameter wichtiger ist als der andere und deshalb angepasst werden muss. Wenn in Amazon SageMaker Algorithmen integriert sind, geben wir an, ob ein Hyperparameter angepasst werden kann.

F: Wie lange dauert es, bis die Optimierung eines Hyperparameters abgeschlossen ist?

Wie lange eine Hyperparameteroptimierung dauert, hängt von verschiedenen Faktoren ab. So ist beispielsweise zu berücksichtigen, wie groß der Datenbestand ist, welcher Algorithmus zugrunde liegt und welche Werte die Hyperparameter aufweisen. Darüber hinaus können Kunden angeben, wie viele Trainings gleichzeitig laufen sollen und wie viele Trainings insgesamt durchgeführt werden sollen. All diese Entscheidungen wirken sich auf die Dauer der Hyperparameteroptimierung aus.

F: Kann ich mehrere Ziele gleichzeitig so optimieren, dass ein Modell schnell und zugleich präzise ist?

Nein, derzeit nicht. Derzeit müssen Sie eine einzelne Zielmetrik vorgeben, wenn Sie Ihren Algorithmuscode so optimieren oder abändern möchten, dass er eine neue Metrik (ein gewichteter Durchschnitt aus zwei oder mehreren nützlichen Kennzahlen) ausgibt und dass die Optimierung auf diese Zielmetrik optimal ausgerichtet wird.

F: Was hoch sind die Kosten für die automatische Modelloptimierung?

Für die eigentliche Hyperparameteroptimierung wird nichts berechnet. Kostenpflichtig sind jedoch die Trainings, die von der Hyperparameteroptimierung ausgelöst werden. Hierbei ist die Preisliste für Modelltraining ausschlaggebend.

F: Auf welcher Grundlage entscheide ich, ob Amazon SageMaker Autopilot oder die automatische Modelloptimierung zu verwenden ist?

Amazon SageMaker Autopilot automatisiert jeden Schritt in einem typischen Machine Learning-Workflow, einschließlich der Funktionsvorverarbeitung, der Algorithmusauswahl und der Hyperparameter-Optimierung. Der besondere Fokus liegt hier auf Anwendungsfällen in den Bereichen Klassifizierung und Regression. Die automatische Modelloptimierung auf der anderen Seite wurde für die Optimierung beliebiger Modelle konzipiert. Dabei ist es unerheblich, ob es auf integrierten Algorithmen, Deep Learning-Frameworks oder benutzerdefinierten Containern basiert. Im Austausch für die Flexibilität müssen Sie in einem manuellen Schritt den jeweiligen Algorithmus auswählen und die zu optimierenden Hyperparameter and die entsprechenden Suchbereiche bestimmen.

F: Was ist verstärkendes Lernen?

Verstärkendes Lernen ist eine Technik des Machine Learning, mit der ein Agent in einer interaktiven Umgebung durch Versuch und Irrtum lernen kann. Dabei fließt auch Feedback von seinen eigenen Aktionen und Erfahrungen ein.

F: Kann ich Modelle für das verstärkende Lernen in Amazon SageMaker trainieren?

Ja, Sie können Modelle für das verstärkende Lernen zusätzlich zu den Modellen für das überwachte und nicht überwachte Lernen in Amazon SageMaker trainieren.

F: Inwiefern unterscheidet sich das verstärkende Lernen vom überwachten Lernen?

Beim überwachten und beim verstärkenden Lernen wird die Zuweisung zwischen Eingabe und Ausgabe verwendet. Beim überwachten Lernen besteht das Feedback, das ein Agent erhält, aber aus einem korrekten Satz an Aktionen für das Ausführen einer Aufgabe. Das verstärkende Lernen verwendet dagegen ein verzögertes Feedback, bei dem Belohnungssignale optimiert werden, um ein langfristiges Ziel durch eine Folge von Aktionen zu gewährleisten.

F: Wann sollte ich das verstärkende Lernen verwenden?

Beim überwachten Lernen besteht das Ziel darin, basierend auf Mustern in den Trainingsdaten die richtige Antwort zu ermitteln. Beim nicht überwachten Lernen gilt es, Ähnlichkeiten und Unterschiede zwischen Datenpunkten zu finden. Dagegen soll beim verstärkenden Lernen herausgefunden werden, wie man ein gewünschtes Ergebnis erreichen kann, selbst wenn nicht klar ist, wie sich dieses Ergebnis erzielen lässt. Daher ist das verstärkende Lernen besser für die Unterstützung intelligenter Anwendungen geeignet, bei denen ein Agent autonome Entscheidungen treffen kann, z. B. bei Robotern, autonomen Fahrzeugen, Kühlung, industriellen Steuerungen usw.

F: Welche Arten von Umgebungen kann ich für das Trainieren von Modellen für das verstärkende Lernen verwenden?

Amazon SageMaker RL unterstützt viele verschiedene Umgebungen für das Trainieren von Modellen für das verstärkende Lernen. Sie können AWS-Services wie AWS RoboMaker, Open-Source-Umgebungen, benutzerdefinierte und mit Open AI Gym-Schnittstellen entwickelte Umgebungen und kommerzielle Simulationsumgebungen wie MATLAB und SimuLink verwenden.

F: Muss ich selbst RL-Agenten-Algorithmen schreiben, um Modelle für das verstärkende Lernen zu trainieren?

Nein. Amazon SageMaker RL umfasst Toolkits für das verstärkende Lernen wie Coach und Ray RLLib, die Implementierungen von RL-Agenten-Algorithmen wie DQN, PPO, A3C usw. bieten.

F: Kann ich meine eigenen Bibliotheken für das verstärkende Lernen und Algorithmusimplementierungen in Amazon SageMaker RL ausführen?

Ja, Sie können Ihre eigenen Bibliotheken für das verstärkende Lernen und Algorithmusimplementierungen in Docker-Containern einbringen und sie in Amazon SageMaker RL ausführen.

F: Sind verteilte Rollouts mit Amazon SageMaker RL möglich?

Ja. Sie können sogar ein heterogenes Cluster auswählen, bei dem das Training auf einer GPU-Instance und die Simulationen auf mehreren CPU-Instances ausgeführt werden können.

Modelle bereitstellen

F: Was ist die Amazon SageMaker Modellüberwachung?

Mit der Amazon SageMaker Modellüberwachung können Entwickler Konzeptabweichungen erkennen und beheben. SageMaker Model Monitor erkennt automatisch Konzeptabweichungen in implementierten Modellen und bietet detaillierte Warnungen, mit denen die Ursache des Problems ermittelt werden kann. Alle in SageMaker geschulten Modelle geben automatisch wichtige Messdaten aus, die in SageMaker Studio erfasst und angezeigt werden können. In SageMaker Studio können Sie konfigurieren, welche Daten erfasst werden sollen, wie diese angezeigt werden und wann Warnungen empfangen werden sollen.

F: Kann ich auf die Infrastruktur zugreifen, auf der Amazon SageMaker ausgeführt wird?

Nein. Amazon SageMaker betreibt die Datenverarbeitungs-Infrastruktur für Sie und ermöglicht dort Zustandsprüfungen, die Anwendung von Sicherheitspatches und die Durchführung sonstiger Routineaufgaben der Wartung. Sie können die Modellartefakte auch aus dem Training mit benutzerdefinierten Inferenzcodes in Ihrer eigenen Hosting-Umgebung bereitstellen.

F: Wie skaliere ich die Größe und Leistung eines Amazon SageMaker-Modells in der Produktion?

Durch das Amazon SageMaker-Hosting mit Application Auto Scaling wird automatisch auf die Leistung skaliert, die für Ihre Anwendung erforderlich ist. Darüber hinaus können Sie die Nummer und den Typ der Instance manuell ändern, ohne dass es zu Ausfallzeiten kommt, indem Sie die Endpunktkonfiguration ändern.

F: Wie überwache ich meine Amazon SageMaker-Produktionsumgebung?

Amazon SageMaker sendet Leistungsmesswerte an Amazon CloudWatch Metrics, sodass Sie Messwerte verfolgen, Alarme festlegen und automatisch auf Änderungen im Produktionsdatenverkehr reagieren können. Darüber hinaus schreibt Amazon SageMaker Protokolle in Amazon CloudWatch Logs, damit Sie Ihre Produktionsumgebung überwachen und Fehler beheben können.

F: Welche Arten von Modellen können mit Amazon SageMaker gehostet werden?

Mit Amazon SageMaker können alle Modelle gehostet werden, die der dokumentierten Spezifikation für Inferenz-Docker-Image entsprechen. Dazu gehören Modelle, die aus Amazon SageMaker-Modellartefakten und Inferenzcode erstellt wurden.

F: Wie viele gleichzeitige Echtzeit-API-Anforderungen unterstützt Amazon SageMaker?

Amazon SageMaker wurde dafür konzipiert, eine große Anzahl von Transaktionen pro Sekunde zu skalieren. Die genaue Anzahl hängt vom implementierten Modell und der Anzahl und Art der Instances ab, für die das Modell bereitgestellt wird.

F: Was ist Batch-Transformation?

Durch die Batch-Transformation können Sie anhand von großen oder kleinen Daten-Batches Prognosen erstellen. Es ist dabei nicht erforderlich, den Datensatz in einzelne Blöcke zu unterteilen oder Echtzeitendpunkte zu verwalten. Sie können mit einer einfachen API Prognosen für eine große Anzahl von Datensätzen anfordern und diese Daten leicht und schnell umwandeln.

F: Was ist Amazon SageMaker Neo?

Mit Amazon SageMaker Neo ist es möglich, Machine Learning-Modelle einmal zu trainieren und dann überall in der Cloud und am Edge auszuführen. SageMaker Neo optimiert automatisch Modelle, die mit gängigen Deep-Learning-Frameworks entwickelt wurden und auf mehreren Hardwareplattformen bereitgestellt werden können. Optimierte Modelle können mit bis zu einer doppelten Geschwindigkeit ausgeführt werden und verbrauchen weniger als ein Zehntel der Ressourcen eines typischen Modells für Machine Learning.

F: Was sind die ersten Schritte mit Amazon SageMaker Neo?

Melden Sie sich für die ersten Schritte mit Amazon SageMaker Neo bei der Amazon SageMaker-Konsole an, wählen Sie ein trainiertes Modell aus, folgen Sie dem Beispiel zum Kompilieren von Modellen, und stellen Sie das entstandene Modell auf Ihrer Ziel-Hardwareplattform bereit.

F: Was sind die Hauptkomponenten der Amazon SageMaker Neo?

Amazon SageMaker Neo umfasst zwei wesentliche Hauptkomponenten – einen Compiler und eine Laufzeit. Zuerst liest der Neo-Compiler Modelle, die von unterschiedlichen Frameworks exportiert wurden. Anschließend wandelt er die Framework-spezifischen Funktionen und Operationen in eine Framework-unabhängige Zwischenrepräsentation um. Danach führt er eine Reihe von Optimierungen aus. Im Anschluss erzeugt der Compiler Binärcode für die optimierten Operationen und schreibt sie in eine freigegebene Objektbibliothek. Außerdem speichert der Compiler die Modelldefinition und Parameter in separaten Dateien. Während der Ausführung lädt die Neo-Laufzeit die vom Compiler erzeugten Artefakte – Modelldefinition, Parameter und die freigegebene Objektbibliothek zur Modellausführung.

F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker zur Konvertierung des Modells verwenden zu können?

Nein. Sie können Modelle an anderer Stelle trainieren und Neo dazu verwenden, sie für Amazon SageMaker ML-Instances oder von AWS IoT Greengrass unterstützte Geräte zu optimieren.

F: Welche Modelle unterstützt Amazon SageMaker Neo?

Derzeit unterstützt Amazon SageMaker Neo die gängigsten Deep-Learning-Modelle, die Computer-Vision-Anwendungen unterstützen, und die gängigsten Entscheidungsbaum-Modelle, die heute in Amazon SageMaker verwendet werden. Neo optimiert die Leistung von AlexNet-, ResNet-, VGG-, Inception-, MobileNet-, SqueezeNet- und DenseNet-Modellen, die in MXNet und TensorFlow trainiert wurden, und von Klassifizierungs- und Random Cut Forest-Modellen, die in XGBoost trainiert wurden.

F: Welche Plattformen unterstützt Amazon SageMaker Neo?

Derzeit unterstützt Neo SageMaker ML.C5-, ML.C4-, ML.M5-, ML.M4-, ML.P3- und ML.P2-Instances sowie AWS DeepLens-, Raspberry Pi- und Jetson TX1- und TX2-Geräte und auf Greengrass-Geräten basierende Intel® Atom- und Intel® Xeon-CPUs, ARM Cortex-A-CPUs und Nvidia Maxwell- und Pascal-GPUs.

F: Muss ich eine bestimmte Version eines Frameworks verwenden, die auf der Zielhardware unterstützt wird?

Nein. Entwickler können mit dem Amazon SageMaker Neo-Container Modelle ohne Abhängigkeiten vom Framework ausführen.

F: Wie viel kostet die Nutzung von Amazon SageMaker Neo?

Sie zahlen für die Nutzung der Amazon SageMaker ML-Instance, die mit Amazon SageMaker Neo Inferenz ausführt.

F: In welchen AWS-Regionen ist Amazon SageMaker Neo verfügbar?

Um eine Liste der unterstützten Regionen zu sehen, sehen Sie sich die AWS-Regionstabelle an.

Weitere Informationen zu den Amazon SageMaker-Preisen

Zur Seite mit den Preisen
Sind Sie startbereit?
Registrieren
Haben Sie Fragen?
Kontakt