Allgemeines
F: Was ist Amazon SageMaker?
Amazon SageMaker ist ein vollständig verwalteter Service zum Vorbereiten von Daten und zum Entwickeln, Trainieren und Bereitstellen von Modellen für Machine Learning (ML) für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows.
F: In welchen Regionen ist Amazon SageMaker verfügbar?
Eine Liste der AWS-Regionen, in denen Amazon SageMaker unterstützt wird, finden Sie auf der Seite der regionalen AWS-Services. Weitere Informationen erhalten Sie außerdem unter regionale Endpunkte im allgemeinen AWS-Referenzhandbuch.
F: Wie ist die Serviceverfügbarkeit von Amazon SageMaker?
Amazon SageMaker ist für hohe Verfügbarkeit konzipiert. Es gibt keine Wartungsfenster und keine geplanten Ausfallzeiten. SageMaker-APIs werden in den bewährten Hochverfügbarkeits-Rechenzentren von Amazon ausgeführt. Die Replizierung des Service-Stacks arbeitet an drei Standorten in jeder AWS-Region und bietet so eine Fehlertoleranz bei eventuellen Ausfällen von Server oder Availability Zone.
F: Wie sichert Amazon SageMaker meinen Code?
Amazon SageMaker speichert Codes in ML-Speicher-Volumes, die von Sicherheitsgruppen gesichert und optional im Ruhezustand verschlüsselt werden.
F: Welche Sicherheitsmaßnahmen gibt es bei Amazon SageMaker?
Amazon SageMaker stellt sicher, dass ML-Modellartefakte und andere Systembestandteile sowohl bei der Übertragung als auch im inaktiven Zustand verschlüsselt sind. Anforderungen an die SageMaker-API und die Konsole werden über eine sichere SSL-Verbindung gesendet. Sie übergeben AWS Identity and Access Management-Rollen an SageMaker, um Berechtigungen für den Zugriff auf Ressourcen in Ihrem Namen für Training und Implementierung bereitzustellen. Sie können verschlüsselte Amazon-Simple-Storage-Service-Buckets (Amazon S3) für Modellartefakte und Daten verwenden sowie einen AWS Key Management Service (KMS)-Schlüssel an SageMaker-Notebooks, Trainingsaufgaben und Endpunkte übergeben, um das angefügte ML-Speicher-Volumen zu verschlüsseln. Amazon SageMaker unterstützt auch Amazon Virtual Private Cloud (VPC) und AWS PrivateLink.
F: Verwendet oder teilt Amazon SageMaker Modelle, Trainingsdaten oder Algorithmen?
Amazon SageMaker verwendet oder teilt keine Kundenmodelle, Trainingsdaten oder Algorithmen. Wir wissen, dass der Datenschutz und die Datensicherheit unseren Kunden ein sehr großes Anliegen sind. Das ist der Grund, warum AWS Ihnen das Eigentum und die Kontrolle über Ihre Inhalte durch einfache, leistungsstarke Tools gibt, mit denen Sie festlegen können, wo Ihre Inhalte gespeichert werden, und mit denen Sie Ihre Inhalte während der Übertragung und im Ruhezustand sichern und Ihren Zugriff auf AWS-Services und Ressourcen für Ihre Benutzer verwalten können. Wir implementieren außerdem verantwortungsvolle und fortgeschrittene technische und physische Kontrollen, um den nicht autorisierten Zugriff auf Ihre Inhalte oder deren Offenlegung zu verhindern. Als Kunde bleiben Sie der Eigentümer Ihrer Inhalte und können sich entscheiden, welche AWS-Services Ihre Inhalte verarbeiten, speichern und hosten können. Wir greifen niemals auf Ihre Inhalte zu, ohne Sie vorher um Erlaubnis gebeten zu haben.
F: Wie wird die Verwendung von Amazon SageMaker berechnet?
Sie zahlen für ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie zum Hosten des Notebooks, Trainieren des Modells, Treffen von Vorhersagen und Protokollieren von Ausgaben nutzen. Mit Amazon SageMaker können Sie die Anzahl und den Typ der Instances auswählen, die für das gehostete Notebook, Trainings und das Modell-Hosting verwendet werden. Sie zahlen nur für den tatsächlichen Gebrauch. Es fallen keine Mindestgebühren oder Vorauszahlungen an. Weitere Informationen finden Sie auf der Amazon-SageMaker-Preisseite und dem Amazon-SageMaker-Preisrechner.
F: Wie kann ich meine Amazon-SageMaker-Kosten optimieren, z. B. das Erkennen und Stoppen nicht genutzter Ressourcen, um unnötige Gebühren zu vermeiden?
Es gibt verschiedene bewährte Methoden, mit denen Sie die Ressourcennutzung von Amazon SageMaker optimieren können. Einige Ansätze beinhalten Konfigurationsoptimierungen, andere programmatische Lösungen. Eine vollständige Anleitung zu diesem Konzept mit visuellen Tutorials und Codebeispielen finden Sie in diesem Blog-Beitrag.
F: Was ist, wenn ich über meine eigene Notebook-, Trainings- oder Hosting-Umgebung verfüge?
Amazon SageMaker bietet einen vollständigen, durchgehenden Workflow, aber Sie können Ihre vorhandenen Tools weiterhin mit SageMaker verwenden. Sie können die Ergebnisse jeder Phase ganz einfach gemäß Ihren Geschäftsanforderungen in oder aus SageMaker übertragen.
F: Wird R mit Amazon SageMaker unterstützt?
Ja, R wird von Amazon SageMaker unterstützt. Sie können R innerhalb von SageMaker-Notebook-Instances verwenden, die einen vorinstallierten R-Kernel und die Reticulate-Bibliothek enthalten. Reticulate bietet eine R-Schnittstelle für das Python-SDK von Amazon SageMaker, die es ML-Anwendern ermöglicht, R-Modelle zu erstellen, zu trainieren, abzustimmen und einzusetzen.
F: Wie kann ich in meinem Modell nach Ungleichgewichten suchen?
Amazon SageMaker Clarify hilft bei der Verbesserung der Modelltransparenz, indem statistische Verzerrungen über den gesamten ML-Workflow hinweg erkannt werden. SageMaker Clarify prüft auf Ungleichgewichte während der Datenaufbereitung, nach dem Training und im Laufe der Zeit und enthält außerdem Tools zur Erläuterung der ML-Modelle und ihrer Prognosen. Die Ergebnisse können über Erklärbarkeitsberichte ausgetauscht werden.
F: Welche Art von Verzerrung erkennt Amazon SageMaker Clarify?
Die Messung der Verzerrung in ML-Modellen ist ein erster Schritt zur Verringerung der Verzerrung. Die Verzerrung kann vor dem Training und nach dem Training sowie als Rückschluss auf ein eingesetztes Modell gemessen werden. Jedes Maß der Verzerrung entspricht einem anderen Begriff der Fairness. Selbst wenn man einfache Vorstellungen von Fairness berücksichtigt, führt dies zu vielen verschiedenen Maßnahmen, die in verschiedenen Kontexten anwendbar sind. Sie müssen einseitige Begriffe und Metriken wählen, die für die Anwendung und die untersuchte Situation gültig sind. SageMaker unterstützt derzeit die Berechnung verschiedener Metriken für Trainingsdaten (als Teil der SageMaker-Datenvorbereitung), für das trainierte Modell (als Teil von Amazon SageMaker Experiments) und für die Inferenz für ein bereitgestelltes Modell (als Teil von Amazon SageMaker Model Monitor). Zum Beispiel stellen wir vor dem Training Metriken zur Verfügung, um zu überprüfen, ob die Trainingsdaten repräsentativ sind (d. h. ob eine Gruppe unterrepräsentiert ist) und ob es Unterschiede in der Markierungsverteilung zwischen den Gruppen gibt. Nach dem Training oder während des Bereitstellens können Metriken hilfreich sein, um zu messen, ob (und um wie viel) sich die Leistung des Modells zwischen den Gruppen unterscheidet. Beginnen Sie beispielsweise mit einem Vergleich der Fehlerquoten (wie wahrscheinlich ist es, dass die Vorhersage eines Modells von der wahren Bezeichnung abweicht) oder unterteilen Sie weiter in Präzision (wie wahrscheinlich ist es, dass eine positive Vorhersage richtig ist) und Recall (wie wahrscheinlich ist es, dass das Modell ein positives Beispiel richtig bezeichnet).
F: Wie verbessert Amazon SageMaker Clarify die Erklärbarkeit des Modells?
Amazon SageMaker Clarify ist in Amazon SageMaker-Experiments integriert, um ein Funktionswichtigkeitsdiagramm bereitzustellen, in dem die Wichtigkeit jeder Eingabe für den gesamten Entscheidungsprozess Ihres Modells nach dem Training des Modells aufgeführt ist. Mithilfe dieser Details können Sie feststellen, ob eine bestimmte Modelleingabe mehr Einfluss auf das Gesamtmodellverhalten hat als erwartet. SageMaker Clarify stellt auch Erklärungen zu einzelnen Vorhersagen über eine API zur Verfügung.
F: Was ist Amazon SageMaker Studio?
Amazon SageMaker Studio bietet eine einzige webbasierte visuelle Oberfläche, auf der Sie alle ML-Entwicklungsschritte ausführen können. Mit SageMaker Studio erhalten Sie vollständigen Zugriff, Kontrolle und Einblick in alle Schritte, die zum Vorbereiten von Daten und Erstellen, Trainieren und Bereitstellen von Modellen erforderlich sind. Sie können schnell Daten hochladen, neue Notizbücher erstellen, Modelle schulen und optimieren, zwischen den Schritten hin und her wechseln, um Experimente anzupassen, Ergebnisse zu vergleichen und Modelle an einem Ort für die Produktion bereitzustellen, wodurch Sie viel produktiver werden. Alle ML-Entwicklungsaktivitäten, einschließlich Notebooks, Experimentverwaltung, automatische Modellerstellung, Debugging und Profilerstellung sowie Modellabweichungserkennung, können über die einheitliche visuelle Oberfläche von SageMaker Studio ausgeführt werden.
F: Was ist RStudio auf Amazon SageMaker?
RStudio auf Amazon SageMaker ist die erste vollständig verwaltete RStudio Workbench in der Cloud. Sie können die vertraute integrierte Entwicklungsumgebung (IDE) RStudio schnell starten und die zugrundeliegenden Rechenressourcen hoch- und herunterfahren, ohne Ihre Arbeit zu unterbrechen. Das macht es einfach, Machine Learning (ML) und Analyselösungen in R in großem Maßstab zu erstellen. Sie können nahtlos zwischen der RStudio IDE und Amazon SageMaker Studio Notebooks für die R- und Python-Entwicklung wechseln. Ihre gesamte Arbeit, einschließlich Code, Datensätze, Repositories und andere Artefakte, wird automatisch zwischen den beiden Umgebungen synchronisiert, um Kontextwechsel zu reduzieren und die Produktivität zu steigern.
F: Was ist die Preisstruktur von Amazon SageMaker Studio?
Für die Nutzung von Amazon SageMaker Studio fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die zugrunde liegenden Rechen- und Speichergebühren für die Services, die Sie in Amazon SageMaker Studio verwenden.
F: In welchen Regionen wird Amazon SageMaker Studio unterstützt?
Die Regionen, in denen Amazon SageMaker Studio unterstützt wird, finden Sie in der Dokumentation hier.
ML-Governance
F: Welche ML-Governance-Tools bietet Amazon SageMaker?
Amazon SageMaker bietet speziell entwickelte ML-Governance-Tools für den gesamten Lebenszyklus von ML. Mit SageMaker Role Manager können Administratoren in wenigen Minuten Mindestberechtigungen festlegen. SageMaker Model Cards erleichtert das Erfassen, Abrufen und Weitergeben wichtiger Modellinformationen von der Konzeption bis zum Einsatz, und SageMaker Model Dashboard hält Sie über das Verhalten des Produktionsmodells auf dem Laufenden - alles an einem Ort. Mehr Informationen.
F: Was macht der Amazon SageMaker Role Manager?
Mit Amazon SageMaker Role Manager können Sie in wenigen Minuten Mindestberechtigungen definieren. SageMaker Role Manager bietet einen Basissatz von Berechtigungen für ML-Aktivitäten und Personas mit einem Katalog von vorgefertigten IAM-Richtlinien. Sie können die grundlegenden Berechtigungen beibehalten oder sie weiter an Ihre speziellen Bedürfnisse anpassen. Mit ein paar selbstgesteuerten Eingabeaufforderungen können Sie schnell gängige Governance-Konstrukte wie Netzwerkzugriffsgrenzen und Verschlüsselungsschlüssel eingeben. SageMaker Role Manager erstellt die IAM-Richtlinie dann automatisch. Sie können die generierte Rolle und die zugehörigen Richtlinien über die AWS-IAM-Konsole einsehen. Um die Berechtigungen weiter auf Ihren Anwendungsfall zuzuschneiden, verknüpfen Sie Ihre verwalteten IAM-Richtlinien mit der IAM-Rolle, die Sie mit SageMaker Role Manager erstellen. Sie können auch Tags hinzufügen, um die Rolle zu identifizieren und über AWS-Services hinweg zu organisieren.
F: Was macht der Amazon SageMaker Model Cards?
Amazon SageMaker Model Cards hilft Ihnen dabei, die Modelldokumentation über den gesamten ML-Lebenszyklus hinweg zu zentralisieren und zu standardisieren, indem Sie eine einzige Quelle der Wahrheit für Modellinformationen schaffen. SageMaker Model Cards füllt Schulungsdetails automatisch aus, um den Dokumentationsprozess zu beschleunigen. Sie können auch Details wie den Zweck des Modells und die Leistungsziele hinzufügen. Sie können die Ergebnisse der Modellbewertung an Ihre Modellkarte anhängen und Visualisierungen bereitstellen, um wichtige Einblicke in die Modellleistung zu erhalten. SageMaker Model Cards können durch Exportieren in ein PDF-Format leicht mit anderen geteilt werden.
F: Was macht das Amazon SageMaker Model Dashboard?
Das Amazon SageMaker Model Dashboard gibt Ihnen einen umfassenden Überblick über die eingesetzten Modelle und Endpunkte, so dass Sie Ressourcen und Verletzungen des Modellverhaltens in einem einzigen Fenster verfolgen können. Durch die Integration mit Amazon SageMaker Model Monitor und Amazon SageMaker Clarify können Sie das Modellverhalten in vier Dimensionen überwachen, einschließlich der Daten- und Modellqualität sowie der Verzerrung und der Abweichung der Merkmalszuordnung. SageMaker Model Dashboard bietet außerdem eine integrierte Funktion zum Einrichten und Empfangen von Warnmeldungen für fehlende und inaktive Modellüberwachungsaufträge sowie für Abweichungen im Modellverhalten in Bezug auf Modellqualität, Datenqualität, Bias Drift und Feature Attribution Drift. Sie können einzelne Modelle weiter untersuchen und die Faktoren analysieren, die sich im Laufe der Zeit auf die Modellleistung auswirken. Dann können Sie mit ML-Praktikern nachfassen, um Korrekturmaßnahmen zu ergreifen.
Low-Code-ML
F: Was sind die ersten Schritte mit Amazon SageMaker?
Amazon SageMaker JumpStart hilft Ihnen, schnell und einfach mit ML zu beginnen. Der SageMaker JumpStart bietet eine Reihe von Lösungen für die häufigsten Anwendungsfälle, die mit nur wenigen Klicks bereitgestellt werden können. Die Lösungen sind vollständig anpassbar, und präsentieren die Anwendung von AWS-CloudFormation-Vorlagen und Referenzarchitektur, sodass Sie Ihre ML-Reise beschleunigen können. SageMaker JumpStart bietet auch Grundlagenmodelle und unterstützt die Ein-Klick-Bereitstellung und Feinabstimmung von mehr als 150 gängigen Open-Source-Modellen, beispielsweise für Transformer, zur Objekterkennung oder zur Bildklassifizierung.
F: Wie hilft Amazon SageMaker JumpStart dabei, dass meine Daten geschützt und sicher sind?
Sicherheit hat bei AWS oberste Priorität, und Amazon SageMaker JumpStart ist auf Sicherheit ausgelegt. Das ist der Grund, warum SageMaker Ihnen das Eigentum und die Kontrolle über Ihre Inhalte durch einfache, leistungsstarke Tools gibt, mit denen Sie festlegen können, wo Ihre Inhalte gespeichert werden, und mit denen Sie Ihre Inhalte während der Übertragung und im Ruhezustand sichern und Ihren Zugriff auf AWS-Services und Ressourcen für Ihre Benutzer verwalten können.
- Wir geben keine Informationen zu Kundenschulungen und Inferenzen an Modellverkäufer auf AWS Marketplace weiter. Ebenso werden die Modellartefakte des Verkäufers (z. B. Modellgewichte) nicht mit dem Käufer geteilt.
- Amazon SageMaker JumpStart verwendet keine Kundenmodelle, Trainingsdaten oder Algorithmen, um seinen Service zu verbessern, und gibt keine Kundenschulungs- und Inferenzdaten an Dritte weiter.
- In Amazon SageMaker JumpStart werden ML-Modellartefakte bei der Übertragung und Speicherung verschlüsselt.
- Im Rahmen des AWS-Modells der geteilten Verantwortung ist AWS für den Schutz der Infrastruktur verantwortlich, in der die gesamte AWS Cloud ausgeführt wird. Sie sind dafür verantwortlich, die Kontrolle über Ihre auf dieser Infrastruktur gehosteten Inhalte zu behalten.
- Durch die Verwendung eines Modells aus dem AWS Marketplace oder SageMaker JumpStart übernehmen die Benutzer die Verantwortung für die Qualität der Modellausgabe und erkennen die in der individuellen Modellbeschreibung beschriebenen Funktionen und Einschränkungen an.
F: Welche Grundlagenmodelle sind in Amazon SageMaker JumpStart verfügbar?
Amazon SageMaker JumpStart bietet zwei Arten von Grundlagenmodellen: öffentlich verfügbare Modelle und firmeneigene Modelle. Zu den öffentlich verfügbaren Modellen gehören die Modelle FLAN T5, Bloom, GTP-2 und Stable Diffusion, die über SageMaker JumpStart in der SageMaker-Studio-Benutzeroberfläche, JumpStart in der AWS-Konsole und SageMaker-JumpStart-APIs entdeckt werden können. Diese Modelle können optimiert und/oder auf Endpunkten in Ihrem AWS-Konto bereitgestellt werden. Sie werden Modellgewichte und Skriptcodes vollständig besitzen können. Die Trainingsaufträge und Endgeräte werden nach Stundensätzen berechnet, die auf den SageMaker-Preisen basieren. Firmeneigene Modelle, wie die Jurassic-Modelle von AI21, das Cohere-Modell von Cohere und das Lyra-Fr-Modell von LightOn, können ebenfalls über SageMaker JumpStart in der AWS-Konsole entdeckt werden und befinden sich derzeit in der Vorschauversion. Sie können firmeneigene Modelle mit der Testfunktion testen und anhand eines Beispiel-Jupyter-Notebooks auf einem SageMaker-Endpunkt bereitstellen. Für die Evaluierung von Modellen mithilfe der Testfunktion fallen keine Kosten an, aber die über das Jupyter-Notebook bereitgestellten Endgeräte für diese Modelle werden auf der Grundlage der SageMaker-Preise berechnet. Firmeneigene Modelle befinden sich in der Vorschauphase, und die Preise können sich ändern.
F: Wie fange ich mit Grundlagenmodellen unter Verwendung von Amazon SageMaker JumpStart an?
Um mit öffentlich verfügbaren Grundlagenmodellen zu beginnen, können Sie in SageMaker Studio auf SageMaker JumpStart zugreifen. Eine Liste aller öffentlich verfügbaren Grundlagenmodelle finden Sie auf der Seite für erste Schritte. Um mit firmeneigenen Grundlagenmodellen zu beginnen, die sich in der Vorschauversion befinden, können Sie in der AWS-Konsole auf SageMaker JumpStart zugreifen. Die Vorschauversion beinhaltet die Testfunktion für jedes Modell und einen Abonnementprozess für firmeneigene Modelle.
F: Werden meine Daten (aus Inferenz oder Training) verwendet oder weitergegeben, um das Basismodell zu aktualisieren, das Kunden angeboten wird, die Amazon SageMaker JumpStart verwenden?
Nein. Ihre Inferenz- und Trainingsdaten werden nicht verwendet oder weitergegeben, um das Basismodell, das SageMaker JumpStart den Kunden zur Verfügung stellt, zu aktualisieren oder zu trainieren.
F: Kann ich die Modellgewichte und Skripts firmeneigener Modelle in der Vorschauversion mit Amazon SageMaker JumpStart sehen?
Nein. Bei firmeneigenen Modellen können Kunden die Gewichte und Skripte der Modelle nicht einsehen.
F: Welche Open-Source-Modelle werden von Amazon SageMaker JumpStart unterstützt?
Amazon SageMaker JumpStart enthält mehr als 150 vortrainierte Open-Source-Modelle von PyTorch Hub und TensorFlow Hub. Für Sichtaufgaben wie Bildklassifizierung und Objekterkennung können Sie Modelle wie ResNet, MobileNet und Single-Shot Detector (SSD) nutzen. Für Textaufgaben wie Satzklassifizierung, Textklassifizierung und Beantwortung von Fragen können Sie Modelle wie BERT, RoBERTa und DistilBERT verwenden.
F: Welche Lösungen sind in Amazon SageMaker JumpStart bereits enthalten?
SageMaker JumpStart enthält Lösungen, die mit allen erforderlichen AWS-Services vorkonfiguriert sind, um eine Lösung in die Produktion zu bringen. Die Lösungen sind vollständig personalisierbar, so dass Sie sie problemlos an Ihren speziellen Anwendungsfall und Datensatz anpassen können. Sie können Lösungen für über 15 Anwendungsfälle verwenden, einschließlich Bedarfsprognose, Betrugserkennung und vorausschauende Wartung, und Lösungen mit nur wenigen Klicks bereitstellen. Weitere Informationen zu allen verfügbaren Lösungen finden Sie auf der SageMaker-Seite Erste Schritte.
F: Wie kann ich ML-Artefakte mit anderen innerhalb meiner Organisation teilen?
Mit Amazon SageMaker JumpStart können Datenwissenschaftler und ML-Entwickler ML-Artefakte, einschließlich Notebooks und Modelle, innerhalb ihrer Organisation problemlos gemeinsam nutzen. Administratoren können ein Repository einrichten, auf das eine bestimmte Gruppe von Benutzern zugreifen kann. Alle Benutzer mit Zugriffsberechtigung auf das Repository können Modelle und Notizbücher sowie die öffentlichen Inhalte innerhalb von SageMaker JumpStart durchsuchen und verwenden. Benutzer können Artefakte auswählen, um Modelle zu trainieren, Endpunkte einzusetzen und Notebooks in SageMaker JumpStart auszuführen.
F: Warum sollte ich Amazon SageMaker JumpStart verwenden, um ML-Artefakte mit anderen in meinem Unternehmen zu teilen?
Mit Amazon SageMaker JumpStart können Sie bei der Entwicklung von ML-Anwendungen die Markteinführung beschleunigen. Modelle und Notizbücher, die von einem Team innerhalb Ihres Unternehmens erstellt wurden, können mit nur wenigen Klicks mit anderen Teams innerhalb Ihres Unternehmens geteilt werden. Der interne Wissensaustausch und die Wiederverwendung von Ressourcen können die Produktivität Ihres Unternehmens erheblich steigern.
F: Wie funktioniert die Preisgestaltung für Amazon SageMaker JumpStart?
Die Kosten für die AWS-Services, die von Amazon SageMaker JumpStart aus gestartet werden, wie z. B. Trainingsaufträge und Endpunkte, werden Ihnen auf der Grundlage der Preise zu SageMaker in Rechnung gestellt. Für die Nutzung von SageMaker JumpStart fallen keine zusätzlichen Gebühren an.
F: Was ist Amazon SageMaker Autopilot?
Amazon SageMaker Autopilot ist die erste automatisierte Machine Learning-Funktion der Branche, mit der Sie Ihre ML-Modelle vollständig steuern und überwachen können. SageMaker Autopilot überprüft automatisch die Rohdaten, wendet Feature-Prozessoren an, wählt die besten Algorithmen aus, trainiert und optimiert mehrere Modelle, verfolgt deren Leistung und ordnet die Modelle mit nur wenigen Klicks anhand der Leistung. Das Ergebnis ist das Modell mit der besten Leistung, das Sie zu einem Bruchteil der für das Trainieren des Modells normalerweise erforderlichen Zeit bereitstellen können. Sie erhalten einen vollständigen Überblick darüber, wie das Modell erstellt wurde und was darin enthalten ist, und SageMaker Autopilot lässt sich in Amazon SageMaker Studio integrieren. Sie können bis zu 50 verschiedene Modelle, die von SageMaker Autopilot generiert wurden, in SageMaker Studio untersuchen. Auf diese Weise können Sie das beste Modell für Ihren Anwendungsfall einfach auswählen. SageMaker Autopilot kann von Personen ohne Erfahrung mit ML verwendet werden, um auf einfache Weise ein Modell zu erstellen, oder von erfahrenen Entwicklern, um schnell ein Basismodell zu entwickeln, auf dem Teams weiter iterieren können.
F: Welche integrierten Algorithmen werden in Amazon SageMaker Autopilot unterstützt?
Amazon SageMaker Autopilot unterstützt 2 integrierte Algorithmen: XGBoost und Linear Learner.
F: Kann ich eine Amazon SageMaker Autopilot-Aufgabe manuell anhalten?
Ja. Sie können eine Aufgabe jederzeit anhalten. Wenn eine Amazon SageMaker Autopilot-Aufgabe angehalten wurde, werden alle laufenden Versuche ebenfalls angehalten, und es werden keine neuen Versuche gestartet.
F: Was ist Amazon SageMaker Canvas?
Amazon SageMaker Canvas ist ein No-Code-Service mit einer intuitiven Point-and-Click-Oberfläche, mit der Sie hochpräzise, auf ML basierende Vorhersagen aus Ihren Daten erstellen können. Mit SageMaker Canvas können Sie über eine Drag-and-Drop-Benutzeroberfläche auf Daten aus einer Vielzahl von Quellen zugreifen und diese kombinieren. Dabei werden die Daten automatisch bereinigt und aufbereitet, um die manuelle Bereinigung zu minimieren. SageMaker Canvas wendet eine Vielzahl von hochmodernen ML-Algorithmen an, um hochpräzise Vorhersagemodelle zu finden, und bietet eine intuitive Benutzeroberfläche zur Erstellung von Vorhersagen. Sie können SageMaker Canvas verwenden, um in einer Vielzahl von Geschäftsanwendungen viel genauere Vorhersagen zu treffen und einfach mit Datenwissenschaftlern und Analysten in Ihrem Unternehmen zusammenzuarbeiten, indem Sie Ihre Modelle, Daten und Berichte teilen. Um weitere Informationen über SageMaker Canvas zu erhalten, besuchen Sie bitte die Seite zu häufig gestellten Fragen zu SageMaker Canvas.
F: Was ist die Preisstruktur von Amazon SageMaker Canvas?
Mit Amazon SageMaker Canvas zahlen Sie auf der Grundlage der Nutzung. Mit SageMaker Canvas können Sie Ihre Daten aus verschiedenen Quellen interaktiv einlesen, untersuchen und aufbereiten, hochpräzise ML-Modelle mit Ihren Daten trainieren und Vorhersagen erstellen. Es gibt zwei Komponenten, die Ihre Rechnung bestimmen: Sitzungsgebühren, die auf der Anzahl der Stunden basieren, in denen SageMaker Canvas verwendet oder angemeldet wird, und Gebühren für das Training des Modells, die auf der Größe des Datensatzes basieren, der zur Erstellung des Modells verwendet wird. Weitere Informationen finden Sie auf der Seite mit den Preisen für SageMaker Canvas.
Machine-Learning-Workflows
F: Wie kann ich eine Continuous Integration and Delivery (CI/CD)-Pipeline mit Amazon SageMaker erstellen?
Amazon SageMaker Pipelines unterstützt Sie bei der Erstellung vollautomatischer ML-Workflows von der Datenvorbereitung bis zur Modellbereitstellung. Auf diese Weise können Sie Tausende von ML-Modellen in der Produktion bereitstellen. SageMaker Pipelines wird mit einem Python-SDK bereitgestellt, das eine Verbindung zu Amazon SageMaker Studio herstellt, so dass Sie die Vorteile einer visuellen Schnittstelle nutzen können, um jeden Schritt des Workflows zu erstellen. Anschließend können Sie mithilfe einer einzelnen API jeden Schritt verbinden, um einen End-to-End-Workflow zu erstellen. SageMaker Pipelines kümmert sich um die Verwaltung der Daten zwischen den Schritten, das Packen der Code-Rezepte und die Orchestrierung ihrer Ausführung, wodurch die monatelange Codierung auf einige Stunden reduziert wird. Jedes Mal, wenn ein Workflow ausgeführt wird, wird eine vollständige Aufzeichnung der verarbeiteten Daten und der ergriffenen Maßnahmen geführt, damit Datenwissenschaftler und ML-Entwickler Probleme schnell beheben können.
F: Wie kann ich alle meine trainierten Modelle anzeigen, um das beste Modell für die Produktion auszuwählen?
Amazon SageMaker Pipelines bietet ein zentrales Repository für trainierte Modelle, die als Modellregistrierung bezeichnet wird. Sie können Modelle erkennen und visuell über SageMaker Studio oder programmgesteuert über das Python SDK auf die Modellregistrierung zugreifen. So können Sie ganz einfach das gewünschte Modell für die Bereitstellung in der Produktion auswählen.
F: Welche Komponenten von Amazon SageMaker können zu Amazon-SageMaker-Pipelines hinzugefügt werden?
Die in Amazon SageMaker Studio verfügbaren Komponenten, darunter auch Amazon SageMaker Clarify, Amazon SageMaker Data Wrangler, Amazon SageMaker Feature Store, Amazon SageMaker Experiments, Amazon SageMaker Debugger und Amazon SageMaker Model Monitor, können zu Amazon SageMaker Pipelines hinzugefügt werden.
F: Wie verfolge ich meine Modellkomponenten über den gesamten ML-Workflow?
Amazon SageMaker Pipelines verfolgt automatisch alle Modellbestandteile und führt einen Prüfpfad über alle Änderungen, wodurch die manuelle Nachverfolgung entfällt und Sie beim Erreichen von Compliance-Zielen helfen können. Mit SageMaker Pipelines können Sie Daten, Code, trainierte Modelle und mehr verfolgen.
F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Pipelines?
Für die Nutzung von Amazon SageMaker Pipelines fallen keine zusätzlichen Gebühren an. Sie zahlen nur für das zugrunde liegende Computing oder sonstige separate AWS-Services, die Sie in SageMaker Pipelines verwenden.
F: Kann ich Kubeflow mit Amazon SageMaker verwenden?
Ja. Amazon SageMaker Components for Kubeflow Pipelines sind Open-Source-Plugins, die es Ihnen ermöglichen, Kubeflow Pipelines zum Definieren Ihrer ML-Workflows und SageMaker für Datenkennzeichnung, Training und Inferenzschritte zu verwenden. Kubeflow Pipelines ist ein Add-on für Kubeflow, mit dem Sie portierbare und skalierbare durchgängige ML-Pipelines entwickeln und bereitstellen können. Allerdings müssen ML-Betriebsteams beim Verwenden von Kubeflow Pipelines einen Kubernetes-Cluster mit CPU- und GPU-Instances verwalten und stets für eine hohe Auslastung sorgen, um Betriebskosten zu senken. Das Maximieren der Auslastung eines Clusters für mehrere Daten-Wissenschaftsteams ist schwierig und sorgt bei den ML-Betriebsteams für einen zusätzlichen betrieblichen Aufwand. Als Alternative für einen ML-optimierten Kubernetes-Cluster können Sie mit SageMaker Components for Kubeflow Pipelines leistungsstarke SageMaker-Funktionen nutzen, wie Datenkennzeichnung, vollständig verwaltete, umfangreiche Hyperparameter-Optimierung, verteilte Trainingsaufgaben, sichere und skalierbare Modellbereitstellung mit nur einem Klick sowie kostengünstiges Training durch Amazon-EC2-Spot-Instances, ohne dass Sie Kubernetes-Cluster speziell für die Ausführung der Machine-Learning-Aufgaben konfigurieren und verwalten müssen.
F: Wie funktioniert die Preisgestaltung für Amazon SageMaker-Komponenten für Kubeflow-Pipelines?
Für die Nutzung von Amazon SageMaker Components for Kubeflow Pipelines fallen keine zusätzlichen Gebühren an.
Vorbereiten der Daten
F: Wie kann Amazon SageMaker Daten für ML vorbereiten?
Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für die Zusammenführung und Vorbereitung von Daten für ML. Über eine einzige Schnittstelle in Amazon SageMaker Studio können Sie Daten aus Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation und Amazon SageMaker Feature Store und Snowflake mit nur wenigen Klicks suchen und importieren. Sie können auch Daten abfragen und importieren, die von über 40 Datenquellen übertragen und von Amazon AppFlow im AWS Glue Data Catalog registriert wurden. SageMaker Data Wrangler wird die Rohdaten automatisch laden, aggregieren und anzeigen. Nachdem Sie Ihre Daten in SageMaker Data Wrangler importiert haben, können Sie automatisch generierte Spaltenzusammenfassungen und Histogramme sehen. Mit dem Bericht SageMaker Data Wrangler Data Quality and Insights, der zusammenfassende Statistiken und Warnungen zur Datenqualität enthält, können Sie Ihre Daten besser verstehen und mögliche Fehler erkennen. Sie können die von Amazon SageMaker Clarify unterstützte Verzerrungsanalyse auch direkt von SageMaker Data Wrangler aus durchführen, um mögliche Verzerrungen bei der Datenaufbereitung zu erkennen. Von dort aus können Sie die vorgefertigten Transformationen von SageMaker Data Wrangler verwenden, um Ihre Daten vorzubereiten. Sobald Ihre Daten vorbereitet sind, können Sie mit Amazon SageMaker Pipelines vollautomatische Workflows für ML erstellen oder diese Daten in den Amazon SageMaker Feature Store importieren.
F: Wie kann ich mit Amazon SageMaker Data Wrangler Modellfunktionen erstellen?
Ohne eine einzige Codezeile zu schreiben, kann Amazon SageMaker Data Wrangler Ihre Daten automatisch in neue Funktionen umwandeln. SageMaker Data Wrangler bietet eine Auswahl an vorkonfigurierten Datentransformationen, Imputation fehlender Daten, One-Hot-Codierung, Dimensionalitätsreduktion mittels Hauptkomponentenanalyse (PCA) sowie zeitserienspezifische Transformationen. Sie können beispielsweise eine Textfeldspalte mit einem einzigen Klick in eine numerische Spalte konvertieren. Sie können auch einen Codeschnipsel aus der Snippet-Bibliothek von SageMaker Data Wrangler erstellen.
F: Wie kann ich meine Daten in Amazon SageMaker Data Wrangler visualisieren?
Mit Amazon SageMaker Data Wrangler können Sie Ihre Daten besser verstehen und potenzielle Fehler und Extremwerte mithilfe einer Reihe robuster vorkonfigurierter Visualisierungsvorlagen identifizieren. Histogramme, Streudiagramme und ML-spezifische Visualisierungen wie die Erkennung von Ziellecks sind verfügbar, ohne dass eine einzige Codezeile geschrieben werden muss. Sie können auch eigene Visualisierungen erstellen und bearbeiten.
F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Data Wrangler?
Sie zahlen für alle ML-Rechen-, Speicher- und Datenverarbeitungsressourcen, die Sie für Amazon SageMaker Data Wrangler verwenden. Hier können Sie alle Details zu den Preisen von SageMaker Data Wrangler einsehen. Im Rahmen des kostenlosen Kontingents für AWS können Sie auch kostenlos mit SageMaker Data Wrangler beginnen.
F: Wie kann ich Machine-Learning-Modelle mit Daten trainieren, die in Amazon SageMaker Data Wrangler vorbereitet wurden?
Amazon SageMaker Data Wrangler bietet eine einheitliche Erfahrung, die es Ihnen ermöglicht, Daten vorzubereiten und nahtlos ein Machine-Learning-Modell in Amazon-SageMaker-Autopilot zu trainieren. SageMaker Autopilot erstellt, trainiert und optimiert automatisch die besten ML-Modelle auf der Grundlage Ihrer Daten. Mit SageMaker Autopilot behalten Sie die volle Kontrolle und Sichtbarkeit über Ihre Daten und Ihr Modell. Sie können auch in SageMaker Data Wrangler vorbereitete Funktionen mit Ihren bestehenden Modellen verwenden. Sie können Amazon-SageMaker-Data-Wrangler-Verarbeitungsaufträge so konfigurieren, dass sie als Teil Ihrer SageMaker-Schulungspipeline ausgeführt werden, indem Sie den Auftrag entweder in der Benutzeroberfläche (UI) konfigurieren oder ein Notizbuch mit dem Orchestrierungscode exportieren.
F: Wie geht Amazon SageMaker Data Wrangler mit neuen Daten um, wenn ich meine Funktionen mit historischen Daten vorbereitet habe?
Sie können Amazon-SageMaker-Verarbeitungsaufträge direkt von der SageMaker-Data-Wrangler-Benutzeroberfläche aus konfigurieren und starten, einschließlich der Planung Ihres Datenverarbeitungsauftrags und der Parametrisierung Ihrer Datenquellen, um neue Datenstapel problemlos und in großem Umfang zu verarbeiten.
F: Wie funktioniert Amazon SageMaker Data Wrangler mit meinen CI/CD-Prozessen?
Sobald Sie Ihre Daten vorbereitet haben, bietet Amazon SageMaker Data Wrangler verschiedene Optionen für die Überführung Ihres SageMaker-Data-Wrangler-Flows in die Produktion und lässt sich nahtlos in MLOps und CI/CD-Funktionen integrieren. Sie können SageMaker-Verarbeitungsaufträge direkt von der SageMaker-Data-Wrangler-Benutzeroberfläche aus konfigurieren und starten, einschließlich der Planung Ihres Datenverarbeitungsauftrags und der Parametrisierung Ihrer Datenquellen, um neue Datenstapel problemlos und in großem Umfang zu verarbeiten. Alternativ lässt sich SageMaker Data Wrangler nahtlos in die SageMaker-Verarbeitung und den SageMaker-Spark-Container integrieren. So können Sie SageMaker Data Wrangler ganz einfach mit den SageMaker SDKs in Ihren Produktions-Workflow integrieren.
F: Welches Modell wird von Amazon SageMaker Data Wrangler Quick Model verwendet?
Mit nur wenigen Mausklicks teilt und trainiert Amazon SageMaker Data Wrangler ein XGBoost-Modell mit Standard-Hyperparametern. Basierend auf dem Problemtyp bietet SageMaker Data Wrangler eine Modellzusammenfassung, eine Funktionszusammenfassung und eine Konfusionsmatrix, um Ihnen schnell einen Einblick zu geben, so dass Sie Ihre Datenaufbereitungsabläufe iterieren können.
F: Welche Datengröße unterstützt Amazon SageMaker Data Wrangler?
Amazon SageMaker Data Wrangler unterstützt verschiedene Stichprobenverfahren – wie Top-K, Zufallsstichproben und geschichtete Stichproben – für den Import von Daten, so dass Sie Ihre Daten mit der Benutzeroberfläche von SageMaker Data Wrangler schnell umwandeln können. Wenn Sie große oder umfangreiche Datensätze verwenden, können Sie die Größe der SageMaker-Data-Wrangler-Instance erhöhen, um die Leistung zu verbessern. Sobald Sie Ihren Flow erstellt haben, können Sie Ihren gesamten Datensatz mit SageMaker-Data-Wrangler-Verarbeitungsaufträgen verarbeiten.
F: Funktioniert Amazon SageMaker Data Wrangler mit dem Amazon SageMaker Feature Store?
Sie können Amazon SageMaker Feature Store als Ziel für Ihre in Amazon SageMaker Data Wrangler vorbereiteten Features konfigurieren. Dies kann direkt in der Benutzeroberfläche geschehen oder Sie können ein speziell für die Verarbeitung von Daten erstelltes Notizbuch mit dem SageMaker Feature Store als Ziel exportieren.
F: Wie speichere ich Funktionen für meine ML-Modelle?
Amazon SageMaker Feature Store bietet ein zentrales Depot für Datenfunktionen mit geringer Latenz (Millisekunden) beim Lesen und Schreiben. Funktionen können über den SageMaker Feature Store gespeichert, abgerufen, entdeckt und gemeinsam genutzt werden, und können so mit sicherem Zugriff und Kontrolle modell- und teamübergreifend verwendet werden. Der SageMaker Feature Store unterstützt sowohl Online- als auch Offline-Funktionen, die über Batch- oder Streaming-Pipelines generiert werden. Es unterstützt das Funktion-Backfilling und bietet sowohl Online- als auch Offline-Speicher, um die Gleichheit zwischen den Funktionen des Modelltrainings und der Inferenz aufrechtzuerhalten.
F: Wie kann ich die Konsistenz zwischen Online- und Offline-Funktionen aufrechterhalten?
Der Amazon SageMaker Feature Store gewährleistet automatisch die Konsistenz zwischen Online- und Offline-Funktionen ohne zusätzliche Verwaltung oder Code. Der SageMaker Feature Store wird vollständig verwaltet und sorgt für Konsistenz in allen Trainings- und Inferenzumgebungen.
F: Wie kann ich eine Funktion von einem bestimmten Zeitpunkt an reproduzieren?
Der Amazon SageMaker Feature Store verwaltet zu jeder Zeit Zeitstempel für alle Funktionen. Auf diese Weise können Sie jederzeit Funktionen für geschäftliche oder Compliance-Anforderungen abrufen. Sie können Modellfunktionen und ihre Werte von der ersten Erstellung bis zur Gegenwart leicht erklären, indem Sie das Modell ab einem bestimmten Zeitpunkt reproduzieren.
F: Was sind Offline-Funktionen?
Offline-Funktionen werden für Schulungen verwendet, da Sie über einen langen Zeitraum Zugriff auf sehr große Volumes benötigen. Diese Funktionen werden von einem Repository mit hohem Durchsatz und hoher Bandbreite bereitgestellt.
F: Was sind Online-Funktionen?
Online-Funktionen werden in Anwendungen verwendet, die für Echtzeitprognosen erforderlich sind. Online-Funktionen werden aus einem Depot mit hohem Durchsatz und einer Latenzzeit im einstelligen Millisekundenbereich für schnelle Vorhersagen bereitgestellt.
F: Wie funktioniert die Preisgestaltung für Amazon SageMaker Feature Store?
Im Rahmen des kostenlosen Kontingents für AWS können Sie Amazon SageMaker Feature Store zum Einstieg kostenlos verwenden. Mit dem SageMaker Feature Store bezahlen Sie für das Schreiben in den Feature Store sowie für das Lesen und Speichern im Online Feature Store. Preisinformationen finden Sie auf der SageMaker-Seite mit der Preisübersicht.
F: Was bietet Amazon SageMaker für die Datenbeschriftung?
Amazon SageMaker bietet zwei Angebote zur Datenbeschriftung: Amazon SageMaker Ground Truth Plus und Amazon SageMaker Ground Truth. Mit beiden Optionen können Sie Rohdaten wie Bilder, Textdateien und Videos identifizieren und informative Beschriftungen hinzufügen, um hochwertige Trainings-Datensätze für Ihre ML-Modelle zu erstellen. Für weitere Informationen besuchen Sie die Webseite von SageMaker Data Labeling.
F: Was sind Geodaten?
Geodaten stellen Merkmale oder Objekte auf der Erdoberfläche dar. Die erste Art von Geodaten sind Vektordaten, die zweidimensionale Geometrien wie Punkte, Linien oder Polygone verwenden, um Objekte wie Straßen und Landgrenzen darzustellen. Bei der zweiten Art von Geodaten handelt es sich um Rasterdaten, wie z.B. Bilder, die von Satelliten, Luftplattformen oder Fernerkundungsdaten aufgenommen wurden. Dieser Datentyp verwendet eine Pixelmatrix, um zu definieren, wo sich die Merkmale befinden. Sie können Rasterformate zum Speichern unterschiedlicher Daten verwenden. Eine dritte Art von Geodaten sind mit Geo-Tags versehene Standortdaten. Dazu gehören Points of Interest (z. B. der Eiffelturm), mit Ortsangaben versehene Beiträge in sozialen Medien, Breiten- und Längengradkoordinaten oder verschiedene Stile und Formate von Straßenadressen.
F: Was sind die Geodaten-Funktionen von Amazon SageMaker?
Die Geodaten-Funktionen von Amazon SageMaker erleichtern es Datenwissenschaftlern und Machine Learning (ML)-Entwicklern, ML-Modelle für das Erstellen von Vorhersagen mithilfe von Geodaten zu entwickeln, zu trainieren und bereitzustellen. Sie können Ihre eigenen Daten wie Planet-Labs-Satellitendaten von Amazon S3 hinzufügen oder Daten von Open Data on AWS, Amazon Location Service und anderen Geodatenquellen von Amazon SageMaker erwerben.
F: Warum sollte ich Geospatial ML auf Amazon SageMaker verwenden?
Sie können die Geodaten-Funktionen von Amazon SageMaker verwenden, um Vorhersagen zu Geodaten schneller zu treffen als mit Do-it-yourself-Lösungen. Die Geodaten-Funktionen von Amazon SageMaker erleichtern den Zugriff auf Geodaten aus Ihren vorhandenen Data Lakes, Open-Source-Datensätzen und anderen Geodatenquellen von Amazon SageMaker. Die Geodaten-Funktionen von Amazon SageMaker minimieren den Bedarf an benutzerdefinierten Infrastruktur- und Datenvorverarbeitungsfunktionen, da sie speziell entwickelte Algorithmen für eine effiziente Datenaufbereitung, Modellschulung und Inferenz bieten. Sie können auch benutzerdefinierte Visualisierungen und Daten von Amazon SageMaker Studio aus erstellen und für Ihr Unternehmen freigeben. Zu den Geodaten-Funktionen von Amazon SageMaker gehören vortrainierte Modelle für allgemeine Anwendungen in der Landwirtschaft, Immobilien, Versicherungen und Finanzdienstleistungen.
Entwickeln von Modellen
F: Was sind Amazon-SageMaker-Studio-Notebooks?
Amazon-SageMaker-Studio-Notebooks sind kollaborative, verwaltete Jupyter-Notebooks für den schnellen Einstieg. Amazon-SageMaker-Studio-Notebooks lassen sich mit den speziell entwickelten ML-Tools in SageMaker und anderen AWS-Services für eine durchgängige ML-Entwicklung in Amazon SageMaker Studio, der vollständig integrierten Entwicklungsumgebung (IDE) für ML, integrieren.
F: Inwiefern unterscheiden sich Amazon-SageMaker-Studio-Notebooks von dem Angebot an Instance-basierten Notebooks?
SageMaker-Studio-Notebooks bieten einige wichtige Funktionen, die sie von den Instance-basierten Notebooks unterscheiden. Mit den Studio-Notebooks können Sie Notebooks schnell starten, ohne dass Sie eine Instance manuell bereitstellen und warten müssen, bis sie einsatzbereit ist. Die Startzeit für den Aufruf der Benutzeroberfläche zum Lesen und Ausführen eines Notebooks ist schneller als bei den Instance-basierten Notebooks.
Sie haben auch die Flexibilität, jederzeit aus einer großen Sammlung von Instance-Typen innerhalb der Benutzeroberfläche zu wählen. Es ist nicht nötig, über die AWS-Managementkonsole zu gehen, um neue Instances zu starten und Ihre Notebooks zu portieren.
Jeder Benutzer hat ein isoliertes Home-Verzeichnis, unabhängig von einer bestimmten Instance. Dieses Verzeichnis wird beim Start automatisch in alle Notebook-Server und Kernel gemountet, so dass Sie auf Ihre Notebooks und andere Dateien zugreifen können, auch wenn Sie die Instance wechseln, um Ihre Notebooks anzuzeigen und auszuführen.
SageMaker Studio Notebooks sind in AWS IAM Identity Center (Nachfolger von AWS SSO) integriert, so dass es einfach ist, die organisatorischen Anmeldeinformationen für den Zugriff auf die Notebooks zu verwenden. Die gemeinsame Nutzung von Notebooks ist eine integrierte Funktion in SageMaker Studio Notebooks. Sie können Ihre Notebooks mit einem einzigen Klick für andere Benutzer freigeben oder sogar ein einzelnes Notebook gleichzeitig bearbeiten.
F: Wie funktionieren Amazon-SageMaker-Studio-Notebooks?
Notebooks von Amazon SageMaker Studio sind Ein-Click-Jupyter-Notebooks, die sich schnell hochfahren lassen. Die zugrunde liegenden Rechenressourcen sind voll elastisch, sodass Sie die verfügbaren Ressourcen einfach nach oben oder unten wählen können und die Änderungen automatisch im Hintergrund stattfinden, ohne Ihre Arbeit zu unterbrechen. SageMaker ermöglicht auch die Freigabe von Notebooks mit einem Klick. Sie können Notebooks problemlos mit anderen teilen und diese erhalten genau dasselbe Notebook, das am selben Ort gespeichert ist.
Mit SageMaker-Studio-Notebooks können Sie sich mit Ihren Unternehmensdaten über AWS IAM Identity Center (Nachfolger von AWS SSO) anmelden. Die gemeinsame Nutzung von Notebooks innerhalb und zwischen Teams ist einfach, da die für den Betrieb eines Notebooks erforderlichen Abhängigkeiten automatisch in den Arbeits-Images verfolgt werden, die bei der gemeinsamen Nutzung des Notebooks mit diesem gekapselt werden.
F: Was sind die gemeinsam genutzten Bereiche in Amazon SageMaker?
Fachleute für Machine Learning können einen gemeinsamen Arbeitsbereich erstellen, in dem Teamkollegen Amazon-SageMaker-Studio-Notebooks gemeinsam lesen und bearbeiten können. Durch die Verwendung der gemeinsamen Paces können Teamkollegen dieselbe Notebook-Datei gemeinsam bearbeiten, den Notebook-Code gleichzeitig ausführen und die Ergebnisse gemeinsam überprüfen, um ein Hin und Her zu vermeiden und die Zusammenarbeit zu optimieren. In den gemeinsam genutzten Bereichen werden ML-Teams über integrierte Unterstützung für Dienste wie BitBucket und AWS CodeCommit verfügen, so dass sie problemlos verschiedene Versionen ihres Notebooks verwalten und Änderungen im Laufe der Zeit vergleichen können. Alle in den Notebooks erstellten Ressourcen, wie z.B. Experimente und ML-Modelle, werden automatisch gespeichert und mit dem spezifischen Arbeitsbereich verknüpft, in dem sie erstellt wurden, so dass die Teams leichter organisiert bleiben und die Entwicklung von ML-Modellen beschleunigen können.
F: Wie funktioniert die Zusammenarbeit von Amazon SageMaker Studio Notebooks mit anderen AWS-Services?
Amazon SageMaker Studio Notebooks gewährt Zugriff auf alle SageMaker-Funktionen, darunter verteiltes Training, Batch-Transformation, Hosting und Experimentverwaltung. Sie können aus SageMaker-Notebooks heraus auf andere Services wie Datensätze in Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR, oder AWS Lake Formation zugreifen.
F: Was ist die Preisstruktur von Amazon-SageMaker-Studio-Notebooks?
Bei der Nutzung von SageMaker Studio Notebooks zahlen Sie für Rechnerleistung und Speicherkapazität. Siehe Preise zu Amazon SageMaker für die Gebühren nach Instance-Typ. Ihre Notebooks und einschlägige Artefakte wie Dateien und Skripte bleiben auf Amazon EFS erhalten. Unter Preise zu Amazon EFS finden Sie die Gebühren für Speicher. Im Rahmen des kostenlosen Kontingents für AWS können Sie Notebooks von Amazon SageMaker Studio zum Einstieg kostenlos verwenden.
F: Werden mir Notebooks, die in SageMaker Studio eingerichtet und betrieben werden, separat berechnet?
Nein. Sie können auf derselben Compute-Instance mehrere Notebooks einrichten und betreiben. Sie zahlen nur für genutzte Datenverarbeitung, nicht für einzelne Elemente. Weitere Informationen zu diesem Thema finden Sie unserem Leitfaden zur Messung.
Neben Notebooks können Sie in SageMaker Studio zudem Terminals und interaktive Shells starten und betreiben – alles auf derselben Computing-Instance. Jede Anwendung läuft innerhalb eines Containers oder Images. SageMaker Studio stellt eine Reihe integrierter Images bereit, die gezielt und vorab konfiguriert für Datenwissenschaft und ML sind. Mehr über die SageMaker-Studio-Entwicklungsumgebung erfahren Sie im Leitfaden zur Verwendung zu SageMaker-Studio-Notebooks.
F: Wie überwache ich die von meinen Notebooks genutzten Ressourcen und fahre sie herunter?
Überwachung und Herunterfahren der Ressourcen, die von Ihren SageMaker-Studio-Notebooks genutzt werden, können über die visuelle Oberfläche von SageMaker Studio sowie die AWS-Managementkonsole erfolgen. Weitere Informationen finden Sie in der Dokumentation.
F: Ich führe ein SageMaker-Studio-Notebook aus. Fallen weiterhin Kosten an, wenn ich Browser oder Notebook-Tab schließe oder den Browser einfach offen lasse?
Ja. Sie werden weiterhin für die Datenverarbeitung belastet. Dies kann man mit dem Starten von Amazon-EC2-Instances in der AWS-Managementkonsole und dem anschließenden Schließen des Browsers vergleichen. Die Amazon-EC2-Instances laufen weiter und es fallen weiterhin Gebühren an, es sei denn, Sie schalten die Instance extra ab.
F: Fallen für das Erstellen und Einrichten einer Amazon-SageMaker-Studio-Domäne Kosten an?
Nein. Für Einrichten oder Konfigurieren einer Amazon-SageMaker-Studio-Domäne sowie Hinzufügen, Updaten und Löschen von Benutzerprofilen entstehen keine Gebühren.
F: Wie kann ich die einzelnen Gebührenposten für Amazon-SageMaker-Studio-Notebooks oder sonstige Amazon-SageMaker-Services einsehen?
Als Administrator finden Sie die Liste der einzelnen Gebührenposten für Amazon SageMaker, darunter derer für SageMaker Studio, in der AWS-Fakturierungskonsole. Wählen Sie in der AWS-Managementkonsole für SageMaker im Menü oben Services aus, geben Sie im Suchfeld „billing“ (Fakturierung) ein und wählen Sie aus der Dropdown-Liste „Billing“ aus. Wählen Sie dann auf der linken Seite Bills (Rechnungen) aus. Im Details-Bereich können Sie auf SageMaker klicken, um die Liste der Regionen zu erweitern und einzelne Gebührenposten anzusehen.
F: Was ist Amazon SageMaker Studio Lab?
Amazon SageMaker Studio Lab ist eine kostenlose Entwicklungsumgebung für ML, die kostenlos Computing, Speicher (bis zu 15 GB) und Sicherheit bietet, damit jeder mit ML lernen und experimentieren kann. Alles, was Sie für den Anfang benötigen, ist eine gültige E-Mail-ID, Sie müssen keine Infrastruktur konfigurieren, Identität und Zugriff verwalten oder sich für ein AWS-Konto anmelden. SageMaker Studio Lab beschleunigt die Modellerstellung durch die GitHub-Integration und ist mit den beliebtesten ML-Tools, Frameworks und Bibliotheken vorkonfiguriert, damit Sie sofort loslegen können. SageMaker Studio Lab speichert Ihre Arbeit automatisch, sodass Sie zwischen den Sitzungen nicht neu starten müssen. Sie können einfach Ihren Laptop schließen und später wiederkommen.
F: Warum sollte ich Amazon SageMaker Studio Lab verwenden?
Amazon SageMaker Studio Lab richtet sich an Studenten/innen, Forscher und Datenwissenschaftler, die eine kostenlose Notebook-Entwicklungsumgebung ohne Einrichtung für ihre ML-Kurse und -Experimente benötigen. SageMaker Studio Lab eignet sich hervorragend für Benutzer, die keine Produktionsumgebung benötigen, aber dennoch eine Teilmenge der SageMaker-Funktionalität benötigen, um ihre ML-Fähigkeiten zu verbessern. SageMaker-Sitzungen werden automatisch gespeichert, sodass Benutzer bei jeder Benutzersitzung dort weitermachen können, wo sie aufgehört haben.
F: Wie arbeitet Amazon SageMaker Studio Lab mit anderen AWS-Services?
Amazon SageMaker Studio Lab ist ein auf AWS basierender Service und nutzt viele der gleichen Kernservices wie Amazon SageMaker Studio wie Amazon S3 und Amazon EC2. Im Gegensatz zu den anderen Services benötigen Kunden kein AWS-Konto. Stattdessen erstellen sie ein spezifisches Konto für Amazon SageMaker Studio Lab mit einer E-Mail-Adresse. Dadurch erhält der Benutzer Zugriff auf eine begrenzte Umgebung (15 GB Speicher und 12-Stunden-Sitzungen), damit er ML-Notebooks ausführen kann.
F: Was ist Amazon SageMaker Canvas?
Amazon SageMaker Canvas ist ein visueller Drag-and-Drop-Service, der es Geschäftsanalysten ermöglicht, ML-Modelle zu erstellen und genaue Vorhersagen zu generieren, ohne Code zu schreiben oder ML-Kenntnisse zu haben. SageMaker Canvas macht es einfach, auf Daten aus einer Vielzahl von Quellen zuzugreifen und sie zu kombinieren, Daten automatisch zu bereinigen und eine Vielzahl von Datenanpassungen anzuwenden und ML-Modelle zu erstellen, um mit einem einzigen Klick genaue Vorhersagen zu generieren. Sie können auch ganz einfach Ergebnisse veröffentlichen, Modelle erklären und interpretieren und Modelle zur Überprüfung mit anderen innerhalb Ihrer Organisation teilen.
F: Welche Datenquellen unterstützt Amazon SageMaker Canvas?
Mit Amazon SageMaker Canvas können Sie nahtlos AWS-Datenquellen entdecken, auf die Ihr Konto Zugriff hat, einschließlich Amazon S3 und Amazon Redshift. Sie können Daten mit der visuellen Drag-and-Drop-Oberfläche von SageMaker Canvas durchsuchen und importieren. Darüber hinaus können Sie Dateien per Drag-and-Drop von Ihrer lokalen Festplatte ziehen und vorgefertigte Konnektoren verwenden, um Daten aus Drittanbieterquellen wie Snowflake zu importieren.
F: Wie erstelle ich ein ML-Modell, um genaue Vorhersagen in Amazon SageMaker Canvas zu generieren?
Nachdem Sie Quellen verbunden, einen Datensatz ausgewählt und Ihre Daten vorbereitet haben, können Sie die Zielspalte auswählen, die Sie vorhersagen möchten, um einen Modellerstellungsauftrag einzuleiten. Amazon SageMaker Canvas identifiziert automatisch die Art des Problems, generiert neue relevante Funktionen, testet einen umfassenden Satz von Vorhersagemodellen mit ML-Techniken wie linearer Regression, logistischer Regression, Deep Learning, Zeitreihenvorhersage und Gradient Boosting und erstellt das Modell, das auf der Grundlage Ihres Datensatzes genaue Vorhersagen macht.
F: Wie lange dauert es, ein Modell in Amazon SageMaker Canvas zu erstellen? Wie kann ich den Fortschritt während der Modellerstellung überwachen?
Die Zeit, die zum Erstellen eines Modells benötigt wird, hängt von der Größe Ihres Datensatzes ab. Kleine Datensätze können weniger als 30 Minuten dauern, und große Datensätze können einige Stunden dauern. Während der Modellerstellungsauftrag fortschreitet, bietet Amazon SageMaker Canvas detaillierte visuelle Aktualisierungen, einschließlich des Prozentsatzes des Auftragsabschlusses und der verbleibenden Zeit für den Auftragsabschluss.
Trainieren von Modellen
F: Was sind Amazon-SageMaker-Experimente?
Mit Amazon-SageMaker-Experimenten können Sie Iterationen von Modellen für ML organisieren und nachverfolgen. Mit SageMaker-Experimenten können Sie Iterationen verwalten, indem Sie die Eingabeparameter, Konfigurationen und Ergebnisse automatisch erfassen und als „Experimente“ speichern. Sie können in der visuellen Oberfläche von Amazon SageMaker Studio arbeiten, in der Sie aktive Experimente durchsuchen, nach früheren Experimenten anhand ihrer Eigenschaften suchen, frühere Experimente mit ihren Ergebnissen überprüfen und die Testergebnisse visuell vergleichen können.
F: Was ist Amazon SageMaker Debugger?
Amazon SageMaker Debugger erfasst während des Trainings automatisch Metriken in Echtzeit, z. B. Konfusionsmatrizen und Lerngradienten, um die Modellgenauigkeit zu verbessern. Die Metriken von SageMaker Debugger können zum besseren Verständnis in Amazon SageMaker Studio visualisiert werden. SageMaker Debugger kann auch Warnungen und Fehlerbehebungshinweise generieren, wenn allgemeine Schulungsprobleme festgestellt werden. SageMaker Debugger überwacht und profiliert außerdem automatisch Systemressourcen wie CPUs, GPUs, Netzwerk und Speicher in Echtzeit und gibt Empfehlungen zur Neuzuweisung dieser Ressourcen. Auf diese Weise können Sie Ihre Ressourcen während des Trainings effizient nutzen und Kosten und Ressourcen reduzieren.
F: Wird verteiltes Training von Amazon SageMaker unterstützt?
Ja. Amazon SageMaker kann Deep-Learning-Modelle und große Trainingssätze in einem Bruchteil der Zeit, die zum manuellen Erstellen und Optimieren dieser Verteilungsstrategien erforderlich ist, automatisch auf AWS GPU-Instances verteilen. Die beiden verteilten Trainingstechniken, die SageMaker anwendet, sind Datenparallelität und Modellparallelität. Datenparallelität wird angewendet, um die Trainingsgeschwindigkeit zu verbessern, indem die Daten gleichmäßig auf mehrere GPU-Instances verteilt werden, sodass jede Instance gleichzeitig trainieren kann. Modellparallelität ist nützlich für Modelle, die zu groß sind, um auf einer einzelnen GPU gespeichert zu werden, und erfordert, dass das Modell in kleinere Teile aufgeteilt wird, bevor es auf mehrere GPUs verteilt wird. Mit nur wenigen Zeilen zusätzlichen Codes in Ihren PyTorch- und TensorFlow-Schulungsskripten wendet SageMaker automatisch Datenparallelität oder Modellparallelität für Sie an, sodass Sie Ihre Modelle schneller entwickeln und bereitstellen können. SageMaker bestimmt den besten Ansatz für die Aufteilung Ihres Modells, indem es Algorithmen zur Graphenpartitionierung verwendet, um die Berechnungen der einzelnen GPUs auszugleichen und gleichzeitig die Kommunikation zwischen den GPU-Anwendung zu minimieren. SageMaker optimiert Ihre verteilten Trainingsaufträge auch durch Algorithmen, die die AWS-Datenverarbeitung und das AWS-Netzwerk vollständig nutzen, um eine nahezu lineare Skalierungseffizienz zu erzielen, mit der Sie Schulungen schneller abschließen können als manuelle Open-Source-Implementierungen.
F: Was ist Amazon SageMaker Training Compiler?
Amazon SageMaker Training Compiler ist ein Deep-Learning-Compiler (DL), der das DL-Modelltraining durch Optimierungen auf Diagramm- und Kernel-Ebene um bis zu 50 Prozent beschleunigt, um GPUs effizienter zu nutzen. Der SageMaker Training Compiler ist in die Versionen von TensorFlow und PyTorch in SageMaker integriert, sodass Sie das Training in diesen beliebten Frameworks mit minimalen Codeänderungen beschleunigen können.
F: Wie funktioniert der Amazon SageMaker Training Compiler?
Der Amazon SageMaker Training Compiler beschleunigt Trainingsaufträge, indem er DL-Modelle von ihrer Hochsprachendarstellung in hardwareoptimierte Anweisungen umwandelt, die schneller trainieren als Aufträge mit den nativen Frameworks. Genauer gesagt verwendet der SageMaker Training Compiler Optimierungen auf Grafikebene (Operatorfusion, Speicherplanung und algebraische Vereinfachung), Optimierungen auf Datenflussebene (Layout-Transformation, Eliminierung allgemeiner Unterausdrücke) und Backend-Optimierungen (Speicherlatenzverstecken, schleifenorientierte Optimierungen), um einen optimierten Modelltrainingsauftrag zu erstellen, der Hardwareressourcen effizienter nutzt und dadurch schneller trainiert.
F: Wie kann ich den Amazon SageMaker Training Compiler verwenden?
Der Amazon SageMaker Training Compiler ist in das SageMaker Python SDK und die SageMaker Hugging Face Deep Learning Container integriert. Sie müssen Ihre Workflows nicht ändern, um auf die Beschleunigungsvorteile zuzugreifen. Sie können Trainingsaufträge auf die gleiche Weise ausführen, wie Sie es bereits tun, indem Sie jede der Amazon-SageMaker-Schnittstellen verwenden: Amazon-SageMaker-Notebook-Instances, SageMaker Studio, AWS SDK for Python (Boto3) und AWS Command Line Interface. Sie können den SageMaker Training Compiler aktivieren, indem Sie beim Erstellen eines Framework-Schätzungsobjekts eine TrainingCompilerConfig-Klasse als Parameter hinzufügen. In der Praxis bedeutet dies, dass ein paar Codezeilen zu einem bestehenden Trainingsauftrags-Skript für eine einzelne GPU-Instance hinzugefügt werden. Die aktuellste ausführliche Dokumentation, Beispiel-Notebooks und Beispiele finden Sie in der Dokumentation.
F: Wie hoch sind die Preise für den Amazon SageMaker Training Compiler?
Der Training Compiler ist eine SageMaker-Trainingsfunktion und wird ausschließlich SageMaker-Kunden kostenlos zur Verfügung gestellt. Kunden können mit Training Compiler tatsächlich ihre Kosten senken, da sich die Trainingszeiten reduzieren.
F: Was ist Managed Spot Training?
Mit Managed Spot Training mit Amazon SageMaker können Sie Ihre ML-Modelle mithilfe von Amazon-EC2-Spot-Instances trainieren und gleichzeitig die Trainingskosten für Ihre Modelle um bis zu 90 % senken.
F: Wie verwende ich Managed Spot Training?
Sie aktivieren die Option Managed Spot Training, wenn Sie Ihre Trainingsaufträge einreichen, und Sie geben auch an, wie lange Sie auf Spot-Kapazität warten möchten. Amazon SageMaker verwendet dann Amazon-EC2-Spot-Instances, um Ihre Aufgabe auszuführen und die Spot-Kapazität zu verwalten. Sie haben vollen Einblick in den Status Ihres Trainingsauftrags, sowohl während sie laufen als auch während sie auf Kapazität warten.
F: Wann sollte ich Managed Spot Training verwenden?
Managed Spot Training ist ideal, wenn Sie Flexibilität bei Ihren Trainingsläufen haben und wenn Sie die Kosten Ihrer Trainingsaufträge minimieren möchten. Mit Managed Spot Training können Sie die Kosten für das Training Ihrer ML-Modelle um bis zu 90 % zu senken.
F: Wie funktioniert Managed Spot Training?
Managed Spot Training verwendet Amazon EC2 Spot-Instances für Trainings und diese Instances können vorweggenommen werden, wenn AWS Kapazität benötigt. Daher können Managed Spot Trainings-Aufträge in kleinen Schritten ausgeführt werden, sobald die Kapazität verfügbar wird. Die Trainingsaufträge müssen nicht von Grund auf neu gestartet werden, wenn es zu einer Unterbrechung kommt, da Amazon SageMaker die Trainingsaufträge mit dem neuesten Modell-Checkpoint wieder aufnehmen kann. Die integrierten Rahmenbedingungen und die integrierten Computer-Vision-Algorithmen mit SageMaker ermöglichen regelmäßige Checkpoints, und Sie können Checkpoints mit benutzerdefinierten Modellen aktivieren.
F: Muss ich das Managed Spot Training regelmäßig überprüfen?
Wir empfehlen regelmäßige Checkpoints als allgemein bewährtes Verfahren für lange laufende Trainingsaufträge. Dadurch wird verhindert, dass Ihre Managed-Spot-Trainings-Aufträge neu gestartet werden, wenn die Kapazität vorweggenommen wird. Wenn Sie Checkpoints aktivieren, setzt Amazon SageMaker Ihre Managed Spot Trainings-Aufträge vom letzten Checkpoint aus fort.
F: Wie berechnen Sie die Kosteneinsparungen mit Managed-Spot-Trainings-Aufträgen?
Sobald ein Managed-Spot-Training-Auftrag abgeschlossen ist, können Sie die Einsparungen in der AWS-Managementkonsole sehen und auch die Kosteneinsparungen als prozentuale Differenz zwischen der Dauer, für die der Trainingsauftrag ausgeführt wurde, und der Dauer, die Ihnen in Rechnung gestellt wurde, berechnen.
Unabhängig davon, wie oft Ihre Managed-Spot-Training-Aufträge unterbrochen werden, werden Sie nur einmal für die Dauer belastet, für die die Daten heruntergeladen wurden.
F: Welche Instances kann ich mit Managed Spot Training verwenden?
Managed Spot Training kann mit allen Instances verwendet werden, die in Amazon SageMaker unterstützt werden.
F: Welche AWS-Regionen werden mit Managed Spot Training unterstützt?
Managed Spot Training wird in allen AWS-Regionen unterstützt, in denen Amazon SageMaker derzeit verfügbar ist.
F: Gibt es Grenzen für die Größe der Datenmenge, die ich für das Training verwenden kann?
Es gibt keine festen Grenzen für die Größe der Datasets, die Sie für Schulungsmodelle mit Amazon SageMaker verwenden können.
F: Mit welchen Algorithmen generiert Amazon SageMaker Modelle?
Amazon SageMaker umfasst integrierte Algorithmen für lineare Regression, logistische Regression, K-Means-Clustering, Hauptkomponentenanalyse, Faktorisierungsmaschinen, Modellierung neuronaler Themen, latente Dirichlet-Zuordnung, Gradient-Boosted-Trees, Sequence2Sequence, Zeitreihenprognose, Word2vec und Bildklassifizierung. SageMaker bietet außerdem optimierte Apache MXNet-, Tensorflow-, Chainer-, PyTorch-, Gluon-, Keras-, Horovod-, Scikit-learn- und Deep Graph Library-Container. Darüber hinaus unterstützt Amazon SageMaker Ihre benutzerdefinierten Trainingsalgorithmen, die über ein Docker-Image bereitgestellt werden, das der dokumentierten Spezifikation entspricht.
F: Was ist automatische Modelloptimierung?
Die meisten Algorithmen für ML machen verschiedene Parameter verfügbar, die wie der zugrunde liegende Algorithmus funktioniert. Diese Parameter werden meist als „Hyperparameter“ bezeichnet. Von ihren Werten hängt ab, wie gut die trainierten Modelle sind. Bei der automatischen Modelloptimierung wird nach Hyperparametern eines Algorithmus gesucht, die ein optimales Modell erzeugen können.
F: Welche Modelle können mit der automatischen Modelloptimierung abgestimmt werden?
Sie können die automatische Modelloptimierung in Amazon SageMaker zusätzlich zu Algorithmen ausführen lassen. Voraussetzung ist, dass die Modelloptimierung wissenschaftlich realisierbar ist Amazon SageMaker. Zu den in Frage kommenden Algorithmen gehören beispielsweise integrierte SageMaker-Algorithmen, tief reichende neuronale Netzwerke oder jeder Algorithmus, den Sie als Docker-Image in SageMaker einführen.
F: Kann ich die automatische Modelloptimierung außerhalb von Amazon SageMaker anwenden?
Nein, derzeit nicht. Die beste Modelloptimierung genießen Sie mit Amazon SageMaker.
F: Welcher Abstimmungsalgorithmus liegt der automatischen Modellabstimmung zugrunde?
Derzeit verwenden wir als Algorithmus für die Optimierung von Hyperparametern eine benutzerdefinierte Implementierung der bayes'schen Optimierungsmethodik. Diese zielt darauf ab, eine vom Kunden festgelegte Zielmetrik über den gesamten Optimierungsprozess zu optimieren. Die Implementierung prüft insbesondere die Zielmetrik der abgeschlossenen Trainingsaufträgen und leitet aus den gewonnenen Informationen die Hyperparameterkombination für den nächsten Trainingsauftrag ab.
F: Empfiehlt die automatische Modellabstimmung bestimmte Hyperparameter für die Abstimmung?
Nein. Wie sich bestimmte Hyperparameter auf die Leistung des Modells auswirken, hängt von verschiedenen Faktoren ab. Es ist lässt sich kaum abschließend vorhersagen, ob ein Hyperparameter wichtiger ist als der andere und deshalb angepasst werden muss. Wenn in Amazon SageMaker Algorithmen integriert sind, geben wir an, ob ein Hyperparameter angepasst werden kann.
F: Wie lange dauert es, bis die Optimierung eines Hyperparameters abgeschlossen ist?
Wie lange eine Hyperparameteroptimierung dauert, hängt von verschiedenen Faktoren ab. So ist beispielsweise zu berücksichtigen, wie groß der Datenbestand ist, welcher Algorithmus zugrunde liegt und welche Werte die Hyperparameter aufweisen. Darüber hinaus können Kunden angeben, wie viele Trainings gleichzeitig laufen sollen und wie viele Trainings insgesamt durchgeführt werden sollen. All diese Entscheidungen wirken sich auf die Dauer der Hyperparameteroptimierung aus.
F: Kann ich mehrere Ziele gleichzeitig optimieren, sodass ein Modell schnell und zugleich präzise ist?
Nein, derzeit nicht. Derzeit müssen Sie eine einzelne Zielmetrik vorgeben, wenn Sie Ihren Algorithmuscode so optimieren oder abändern möchten, dass er eine neue Metrik (ein gewichteter Durchschnitt aus zwei oder mehreren nützlichen Kennzahlen) ausgibt und dass die Optimierung auf diese Zielmetrik optimal ausgerichtet wird.
F: Was hoch sind die Kosten für die automatische Modelloptimierung?
Für die eigentliche Hyperparameteroptimierung wird nichts berechnet. Kostenpflichtig sind jedoch die Trainings, die von der Hyperparameteroptimierung ausgelöst werden. Hierbei ist die Preise zum Modelltraining ausschlaggebend.
F: Auf welcher Grundlage entscheide ich, ob Amazon SageMaker Autopilot oder die automatische Modelloptimierung zu verwenden ist?
Amazon SageMaker Autopilot automatisiert jeden Schritt in einem typischen ML-Workflow, einschließlich der Funktionsvorverarbeitung, der Algorithmusauswahl und der Hyperparameter-Optimierung. Der besondere Fokus liegt hier auf Anwendungsfällen in den Bereichen Klassifizierung und Regression. Die automatische Modelloptimierung auf der anderen Seite wurde für die Optimierung beliebiger Modelle konzipiert. Dabei ist es unerheblich, ob es auf integrierten Algorithmen, Deep Learning-Frameworks oder benutzerdefinierten Containern basiert. Im Austausch für die Flexibilität müssen Sie den jeweiligen Algorithmus manuell auswählen und die zu optimierenden Hyperparameter and die entsprechenden Suchbereiche bestimmen.
F: Was ist bestärkendes Lernen?
Bestärkendes Lernen ist eine Technik des ML, mit der ein Agent in einer interaktiven Umgebung durch Versuch und Irrtum lernen kann. Dabei fließt auch Feedback von seinen eigenen Aktionen und Erfahrungen ein.
F: Kann ich Modelle für das bestärkende Lernen in Amazon SageMaker trainieren?
Ja, Sie können Modelle für das verstärkende Lernen zusätzlich zu den Modellen für das überwachte und nicht überwachte Lernen in Amazon SageMaker trainieren.
F: Inwiefern unterscheidet sich das bestärkende Lernen vom Supervised Learning?
Beim Supervised Learning und beim bestärkenden Lernen wird die Zuweisung zwischen Eingabe und Ausgabe verwendet. Beim Supervised Learning besteht das Feedback, das ein Agent erhält, aber aus einem korrekten Satz an Aktionen für das Ausführen einer Aufgabe. Das bestärkende Lernen verwendet dagegen ein verzögertes Feedback, bei dem Belohnungssignale optimiert werden, um ein langfristiges Ziel durch eine Folge von Aktionen zu gewährleisten.
F: Wann sollte ich das bestärkende Lernen verwenden?
Beim überwachten Lernen besteht das Ziel darin, basierend auf Mustern in den Trainingsdaten die richtige Antwort zu ermitteln. Beim nicht überwachten Lernen gilt es, Ähnlichkeiten und Unterschiede zwischen Datenpunkten zu finden. Im Gegensatz dazu besteht das Ziel des Reinforcement Learnings (RL) darin, zu lernen, wie ein gewünschtes Ergebnis erreicht werden kann, auch wenn es noch nicht klar ist. Daher ist das bestärkende Lernen besser für die Unterstützung intelligenter Anwendungen geeignet, bei denen ein Agent autonome Entscheidungen treffen kann, z. B. bei Robotern, autonomen Fahrzeugen, HLK-Systemen, industriellen Steuerungen usw.
F: Welche Arten von Umgebungen kann ich für das Trainieren von RL-Modellen verwenden?
Amazon SageMaker RL unterstützt eine Reihe von Umgebungen für das Trainieren von RL-Modellen. Sie können AWS-Services wie AWS RoboMaker, Open-Source-Umgebungen, benutzerdefinierte und mit Open-AI-Gym-Schnittstellen entwickelte Umgebungen und kommerzielle Simulationsumgebungen wie MATLAB und SimuLink verwenden.
F: Muss ich selbst RL-Agenten-Algorithmen schreiben, um RL-Modelle zu trainieren?
Nein. Amazon SageMaker RL umfasst Toolkits für das bestärkende Lernen wie Coach und Ray RLLib, die Implementierungen von RL-Agenten-Algorithmen wie DQN, PPO, A3C usw. bieten.
F: Kann ich meine eigenen RL-Bibliotheken und Algorithmusimplementierungen in Amazon SageMaker RL ausführen?
Ja. Sie können Ihre eigenen Bibliotheken für das bestärkende Lernen und Algorithmus-Implementierungen in Docker-Containern einbringen und sie in Amazon SageMaker RL ausführen.
F: Sind verteilte Rollouts mit Amazon SageMaker RL möglich?
Ja. Sie können sogar ein heterogenes Cluster auswählen, bei dem das Training auf einer GPU-Instance und die Simulationen auf mehreren CPU-Instances ausgeführt werden können.
Bereitstellen von Modellen
F: Welche Bereitstellungsoptionen bietet Amazon SageMaker?
Nachdem Sie Modelle erstellt und trainiert haben, bietet Amazon SageMaker drei Optionen zur Bereitstellung, damit Sie mit der Erstellung von Prognosen beginnen können. Die Echtzeit-Inferenz eignet sich für Workloads mit Latenzanforderungen im Millisekundenbereich, Nutzlastgrößen bis zu 6 MB und Verarbeitungszeiten von bis zu 60 Sekunden. Die Batch-Transformation eignet sich hervorragend für Offline-Vorhersagen für große Datenmengen, die im Voraus verfügbar sind. Die asynchrone Inferenz wurde für Workloads entwickelt, die keine Latenzzeiten von weniger als einer Sekunde, Nutzlastgrößen von bis zu 1 GB und Verarbeitungszeiten von bis zu 15 Minuten erfordern.
F: Was ist Amazon SageMaker Asynchronous Inference?
Amazon SageMaker Asynchronous Inference stellt eingehende Anforderungen in eine Warteschlange und verarbeitet sie asynchron. Diese Option ist ideal für Anfragen mit großen Nutzdaten und/oder langen Bearbeitungszeiten, die bei ihrem Eintreffen bearbeitet werden müssen. Optional können Sie die Einstellungen für die automatische Skalierung so konfigurieren, dass die Anzahl der Instances auf Null gesenkt wird, wenn keine aktiven Anfragen bearbeitet werden, um Kosten zu senken.
F: Wie kann ich die Einstellungen für die automatische Skalierung so konfigurieren, dass die Anzahl der Instances auf Null gesenkt wird, wenn keine aktiven Anfragen bearbeitet werden?
Sie können die Anzahl der Endpunkt-Instances von Amazon SageMaker Asynchronous Inference auf Null reduzieren, um Kosten zu senken, wenn Sie nicht aktiv Anfragen verarbeiten. Sie müssen eine Skalierungsrichtlinie definieren, die nach der benutzerdefinierten Metrik „ApproximateBacklogPerInstance“ skaliert und den Wert „MinCapacity“ auf Null setzt. Eine schrittweise Anleitung finden Sie im Abschnitt Automatische Skalierung eines asynchronen Endpunkts im Entwicklerhandbuch.
F: Was ist Amazon SageMaker Serverless Inference?
Amazon SageMaker Serverless Inference ist eine speziell entwickelte Serverless-Modellbereitstellungsoption, die die Bereitstellung und Skalierung von ML-Modellen vereinfacht. SageMaker-Serverless-Inference-Endpunkte starten automatisch die Computingressourcen und skalieren sie je nach Datenverkehr ein und aus, sodass Sie nicht mehr den Instance-Typ auswählen, bereitgestellte Kapazität ausführen oder die Skalierung verwalten müssen. Sie können optional die Speicheranforderungen für Ihren Serverless-Inference-Endpunkt angeben. Sie zahlen nur für die Laufzeit des Inferenzcodes und die verarbeitete Datenmenge, nicht für Leerlaufzeiten.
F: Warum sollte ich Amazon SageMaker Serverless Inference verwenden?
Amazon SageMaker Serverless Inference vereinfacht die Entwicklererfahrung, indem es die Notwendigkeit beseitigt, im Voraus Kapazitäten bereitzustellen und Skalierungsrichtlinien zu verwalten. SageMaker Serverless Inference kann basierend auf den Nutzungsmustern innerhalb von Sekunden von zehn auf Tausende von Inferenzen skaliert werden, was es ideal für ML-Anwendungen mit intermittierendem oder unvorhersehbarem Datenverkehr macht. Ein Chatbot-Service, der von einem Gehaltsabrechnungsunternehmen genutzt wird, verzeichnet zum Beispiel am Monatsende einen Anstieg der Anfragen, während der restliche Monat von unregelmäßigem Datenverkehr geprägt ist. Die Bereitstellung von Instances für den gesamten Monat ist in solchen Szenarien nicht kosteneffizient, da Sie am Ende für Leerlaufzeiten bezahlen. SageMaker Serverless Inference hilft bei der Bewältigung dieser Art von Anwendungsfällen, indem es Ihnen sofort eine automatische und schnelle Skalierung bereitstellt, ohne dass Sie den Datenverkehr im Voraus vorhersagen oder Skalierungsrichtlinien verwalten müssen. Darüber hinaus zahlen Sie nur für die Rechenzeit für die Ausführung Ihres Inferenzcodes (in Millisekunden abgerechnet) und für die Datenverarbeitung, was es zu einer kostengünstigen Option für Workloads mit intermittierendem Datenverkehr macht.
F: Was ist Provisioned Concurrency für SageMaker Serverless Inference?
Provisioned Concurrency (bereitgestellte Nebenläufigkeit) ermöglicht Ihnen die Bereitstellung von Modellen auf Serverless-Endpunkten mit vorhersehbarer Leistung und hoher Skalierbarkeit, indem Ihre Endpunkte für eine bestimmte Anzahl gleichzeitiger Anforderungen warm gehalten werden.
F: F: Wann sollte ich Provisioned Concurrency verwenden?
Bei On-Demand-Serverless-Endpunkten kann es einige Zeit dauern, bis Ihr Endpunkt die Rechenressourcen zur Verarbeitung der Anfragen hochgefahren hat, wenn Ihr Endpunkt eine Weile lang keinen Datenverkehr empfängt und dann plötzlich neue Anforderungen erhält. Dies wird als Kaltstart bezeichnet. Ein Kaltstart kann auch auftreten, wenn Ihre nebenläufige Anforderungen die aktuelle Auslastung für nebenläufige Anforderungen überschreiten. Die Kaltstartzeit hängt von Ihrer Modellgröße, der Dauer des Herunterladens Ihres Modells und der Startzeit Ihres Containers ab.
Um die Variabilität in Ihrem Latenzprofil zu verringern, können Sie optional bereitgestellte Nebenläufigkeit für Ihre Serverless-Endpunkte aktivieren. Mit bereitgestellter Nebenläufigkeit sind Ihre Serverless-Endpunkte immer einsatzbereit und können sofort Datenverkehrsschübe bewältigen, ohne dass es zu Kaltstarts kommt.
F: Wie wird mir Provisioned Concurrency berechnet?
Wie bei On-Demand-Serverless-Inferenz zahlen Sie, wenn Provisioned Concurrency aktiviert ist, für die zur Verarbeitung von Inferenzanfragen aufgewendete Rechenkapazität, die pro Millisekunde abgerechnet wird, und für die Menge der verarbeiteten Daten. Sie zahlen auch für die Nutzung von Provisioned Concurrency, basierend auf dem konfigurierten Speicher, der bereitgestellten Dauer und dem Umfang der aktivierten Nebenläufigkeit. Weitere Informationen finden Sie unter Preise für SageMaker.
F: Was ist Amazon SageMaker Shadow Testing?
Mit SageMaker können Sie Schattentests durchführen, um ein neues ML-Modell vor der Produktionsfreigabe zu evaluieren, indem Sie seine Leistung im Vergleich zum aktuell eingesetzten Modell testen. SageMaker setzt das neue Modell im Schattenmodus neben dem aktuellen Produktionsmodell ein und spiegelt einen benutzerdefinierten Teil des Produktionsverkehrs auf das neue Modell. Es protokolliert optional die Modellinferenzen für den Offline-Vergleich. Außerdem bietet es ein Live-Dashboard mit einem Vergleich der wichtigsten Leistungsmetriken wie Latenz und Fehlerrate zwischen dem Produktions- und dem Schattenmodell, um Ihnen die Entscheidung zu erleichtern, ob Sie das neue Modell in die Produktion übernehmen sollen.
F: Warum sollte ich SageMaker für Shadow Testing verwenden?
SageMaker vereinfacht das Einrichten und Überwachen von Schattenvarianten, so dass Sie die Leistung des neuen ML-Modells beim Live-Produktionsverkehr bewerten können. Mit SageMaker müssen Sie die Infrastruktur für Schattentests nicht mehr orchestrieren. Damit können Sie Testparameter wie den Prozentsatz des Datenverkehrs, der auf die Schattenvariante gespiegelt wird, und die Dauer des Tests steuern. Sie können also klein anfangen und die Inferenzanforderungen an das neue Modell erhöhen, sobald Sie Vertrauen in die Leistung des Modells gewonnen haben. SageMaker erstellt ein Live-Dashboard, das die Leistungsunterschiede bei den wichtigsten Metriken anzeigt, so dass Sie die Leistung des Modells leicht vergleichen können, um zu beurteilen, wie sich das neue Modell vom Produktionsmodell unterscheidet.
F: Was ist Amazon SageMaker Inference Recommender?
Amazon SageMaker Inference Recommender ist eine neue Funktion von Amazon SageMaker, die die Zeit verkürzt, die erforderlich ist, um ML-Modelle in die Produktion zu bringen, indem das Leistungs-Benchmarking automatisiert und die Modellleistung in allen SageMaker-ML-Instances optimiert wird. Sie können jetzt den SageMaker Inference Recommender verwenden, um Ihr Modell an einem Endpunkt bereitzustellen, der die beste Leistung bietet und die Kosten minimiert. Sie können in wenigen Minuten erste Schritte mit dem SageMaker Inference Recommender machen, während Sie einen Instance-Typ auswählen, und Sie erhalten innerhalb von Stunden Empfehlungen für optimale Endpunktkonfigurationen, wodurch wochenlange manuelle Tests und Abstimmungszeiten entfallen. Mit SageMaker Inference Recommender zahlen Sie nur für die SageMaker-ML-Instances, die während des Ladetests verwendet werden und es fallen keine zusätzlichen Gebühren an.
F: Warum sollte ich den Amazon SageMaker Inference Recommender verwenden?
Sie sollten SageMaker Inference Recommender verwenden, wenn Sie Empfehlungen für die richtige Endpunktkonfiguration benötigen, um die Leistung zu verbessern und Kosten zu senken. Bisher mussten Datenwissenschaftler, die ihre Modelle bereitstellen wollten, manuelle Benchmarks durchführen, um die richtige Endpunktkonfiguration auszuwählen. Sie mussten zunächst den richtigen ML-Instance-Typ aus den über 70 verfügbaren Instance-Typen basierend auf den Ressourcenanforderungen ihrer Modelle und den Beispielnutzlasten auswählen und dann das Modell optimieren, um unterschiedliche Hardware zu berücksichtigen. Anschließend mussten umfangreiche Lasttests durchgeführt werden, um zu überprüfen, ob die Anforderungen an Latenz und Durchsatz erfüllt und die Kosten gering sind. Der SageMaker Inference Recommender eliminiert diese Komplexität, indem er es Ihnen leicht macht: 1) in wenigen Minuten mit einer Instance-Empfehlung zu beginnen; 2) Lasttests für alle Instance-Typen durchzuführen, um innerhalb von Stunden Empfehlungen für Ihre Endpunktkonfiguration zu erhalten; und 3) für automatisches Abstimmen von Container- und Modellserverparametern sowie das Durchführen von Modelloptimierungen für einen gegebenen Instance-Typ.
F: Wie funktioniert Amazon SageMaker Inference Recommender mit anderen AWS-Services?
Datenwissenschaftler können über Amazon SageMaker Studio, AWS SDK für Python (Boto3) oder AWS CLI auf SageMaker Inference Recommender zugreifen. Sie können Bereitstellungsempfehlungen in SageMaker Studio in der SageMaker-Modellregistrierung für registrierte Modellversionen abrufen. Datenwissenschaftler können die Empfehlungen entweder durch SageMaker Studio, AWS SDK oder AWS CLI suchen und filtern.
F: Kann der Amazon SageMaker Inference Recommender Endpunkte mit mehreren Modellen oder Endpunkte mit mehreren Containern unterstützen?
Nein, wir unterstützen derzeit nur ein einziges Modell pro Endpunkt.
F: Welche Art von Endpunkten unterstützt der SageMaker Inference Recommender?
Derzeit unterstützen wir nur Echtzeit-Endpunkte.
F: Kann ich SageMaker Inference Recommender in einer Region verwenden und Benchmarks in verschiedenen Regionen machen?
Beim Start werden wir alle von Amazon SageMaker unterstützten Regionen mit Ausnahme der AWS-China-Regionen unterstützen.
F: Unterstützt Amazon SageMaker Inference Recommender Amazon-EC2-Inf1-Instances?
Ja, wir unterstützen alle Arten von Containern. Amazon EC2 Inf1, basierend auf dem AWS-Inferentia-Chip, erfordert ein kompiliertes Modellartefakt, das entweder den Neuron-Compiler oder Amazon SageMaker Neo verwendet. Sobald Sie über ein kompiliertes Modell für ein Inferentia-Ziel und den zugehörigen Container-Image-URI verfügen, können Sie Amazon SageMaker Inference Recommender verwenden, um verschiedene Inferentia-Instance-Typen zu vergleichen.
F: Was ist die Amazon SageMaker Modellüberwachung?
Mit Amazon SageMaker Model Monitor können Entwickler Konzeptabweichungen erkennen und beheben. SageMaker Model Monitor erkennt automatisch Konzeptverschiebungen in implementierten Modellen und bietet detaillierte Warnungen, mit denen die Ursache des Problems ermittelt werden kann. Alle in SageMaker geschulten Modelle geben automatisch wichtige Messdaten aus, die in Amazon SageMaker Studio erfasst und angezeigt werden können. In SageMaker Studio können Sie konfigurieren, welche Daten erfasst werden sollen, wie diese angezeigt werden und wann Warnungen empfangen werden sollen.
F: Kann ich auf die Infrastruktur zugreifen, auf der Amazon SageMaker ausgeführt wird?
Nein. Amazon SageMaker betreibt die Datenverarbeitungs-Infrastruktur für Sie und ermöglicht dort Zustandsprüfungen, die Anwendung von Sicherheitspatches und die Durchführung sonstiger Routineaufgaben der Wartung. Sie können die Modellartefakte auch aus dem Training mit benutzerdefinierten Inferenzcodes in Ihrer eigenen Hosting-Umgebung bereitstellen.
F: Wie skaliere ich die Größe und Leistung eines Amazon SageMaker-Modells in der Produktion?
Durch das Amazon SageMaker-Hosting mit Application Auto Scaling wird automatisch auf die Leistung skaliert, die für Ihre Anwendung erforderlich ist. Außerdem können Sie die Nummer und den Typ der Instance manuell ändern, ohne dass es zu Ausfallzeiten kommt, indem Sie die Endpunktkonfiguration ändern.
F: Wie überwache ich meine Amazon SageMaker-Produktionsumgebung?
Amazon SageMaker sendet Leistungsmesswerte an Amazon CloudWatch Metrics, sodass Sie Messwerte verfolgen, Alarme festlegen und automatisch auf Änderungen im Produktionsdatenverkehr reagieren können. Darüber hinaus schreibt Amazon SageMaker Protokolle in Amazon CloudWatch Logs, damit Sie Ihre Produktionsumgebung überwachen und Fehler beheben können.
F: Welche Arten von Modellen können mit Amazon SageMaker gehostet werden?
Mit Amazon SageMaker können alle Modelle gehostet werden, die der dokumentierten Spezifikation für Inferenz-Docker-Image entsprechen. Dazu gehören Modelle, die aus Amazon SageMaker-Modellartefakten und Inferenzcode erstellt wurden.
F: Wie viele gleichzeitige Echtzeit-API-Anforderungen unterstützt Amazon SageMaker?
Amazon SageMaker wurde dafür konzipiert, eine große Anzahl von Transaktionen pro Sekunde zu skalieren. Die genaue Anzahl hängt vom implementierten Modell und der Anzahl und Art der Instances ab, für die das Modell bereitgestellt wird.
F: Was ist Batch-Transformation?
Durch die Batch-Transformation können Sie anhand von großen oder kleinen Daten-Batches Prognosen erstellen. Es ist nicht nötig, den Datensatz in mehrere Teile aufzuteilen oder Echtzeit-Endpunkte zu verwalten. Sie können mit einer einfachen API Prognosen für eine große Anzahl von Datensätzen anfordern und diese Daten leicht und schnell umwandeln.
F: Was ist Amazon SageMaker Edge Manager?
Amazon SageMaker Edge Manager erleichtert die Optimierung, Sicherung, Überwachung und Wartung von ML-Modellen auf Flotten von Edge-Geräten wie Smart-Kameras, Robotern, PCs und mobilen Geräten. Mit SageMaker Edge Manager können ML-Entwickler ML-Modelle auf einer Vielzahl von Edge-Geräten in großem Maßstab betreiben.
F: Was sind die ersten Schritte mit Amazon SageMaker Edge Manager?
Um mit Amazon SageMaker Edge Manager zu beginnen, müssen Sie Ihre trainierten ML-Modelle in der Cloud kompilieren und verpacken, Ihre Geräte registrieren und Ihre Geräte mit dem SageMaker Edge Manager SDK vorbereiten. Um Ihr Modell für die Bereitstellung vorzubereiten, verwendet SageMaker Edge Manager SageMaker Neo, um Ihr Modell für Ihre Ziel-Edge-Hardware zu kompilieren. Sobald ein Modell kompiliert ist, signiert der SageMaker Edge Manager das Modell mit einem von AWS generierten Schlüssel und verpackt es dann mit seiner Laufzeit und den erforderlichen Anmeldeinformationen, um es für die Bereitstellung vorzubereiten. Auf der Geräteseite registrieren Sie Ihr Gerät bei SageMaker Edge Manager, laden das SageMaker-Edge-Manager-SDK herunter und befolgen die Anweisungen zum Installieren des SageMaker-Edge-Manager-Agenten auf Ihren Geräten. Das Tutorial-Notebook zeigt Ihnen Schritt für Schritt, wie Sie die Modelle vorbereiten und Ihre Modelle mit SageMaker Edge Manager an Edge-Geräte anschließen können.
F: Welche Geräte werden von Amazon SageMaker Edge Manager unterstützt?
Amazon SageMaker Edge Manager unterstützt gängige CPU- (ARM, x86) und GPU- (ARM, Nvidia) basierte Geräte mit Linux und Windows Betriebssystemen. Im Laufe der Zeit wird SageMaker Edge Manager erweitert, um mehr eingebettete Prozessoren und mobile Plattformen zu unterstützen, die auch von SageMaker Neo unterstützt werden.
F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker Edge Manager verwenden zu können?
Nein, müssen Sie nicht. Sie können Ihre Modelle anderswo trainieren oder ein bereits trainiertes Modell aus Open Source oder von Ihrem Modellanbieter verwenden.
F: Muss ich mein Modell mit Amazon SageMaker Neo trainieren, um Amazon SageMaker Edge Manager verwenden zu können?
Ja, müssen Sie. Amazon SageMaker Neo konvertiert und kompiliert Ihre Modelle in eine ausführbare Datei, die Sie dann verpacken und auf Ihren Edge-Geräten bereitstellen können. Sobald das Modellpaket bereitgestellt ist, entpackt der Amazon SageMaker Edge Manager-Agent das Modellpaket und führt das Modell auf dem Gerät aus.
F: Wie stelle ich Modelle auf den Edge-Geräten bereit?
Amazon SageMaker Edge Manager speichert das Modellpaket in Ihrem angegebenen Amazon S3-Bucket. Sie können die von AWS IoT Greengrass bereitgestellte Over-the-Air (OTA)-Bereitstellungsfunktion oder einen anderen Bereitstellungsmechanismus Ihrer Wahl verwenden, um das Modellpaket von Ihrem S3-Bucket auf den Geräten bereitzustellen.
F: Wie unterscheidet sich das Amazon SageMaker Edge Manager SDK von der SageMaker Neo-Laufzeit (dlr)?
Neo-DLR ist eine Open Source-Laufzeit, die nur Modelle ausführt, die vom Amazon-SageMaker-Neo-Service kompiliert wurden. Im Vergleich zur Open Source-DLR enthält das SageMaker Edge Manager SDK einen On-Device-Agenten für Unternehmen mit zusätzlichen Funktionen für Sicherheit, Modellverwaltung und Modellbereitstellung. Das SageMaker Edge Manager SDK eignet sich für die Produktionsbereitstellung in großem Maßstab.
F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS IoT Greengrass?
Amazon SageMaker Edge Manager und AWS IoT Greengrass können in Ihrer IoT-Lösung zusammenarbeiten. Sobald Ihr ML-Modell mit SageMaker Edge Manager verpackt ist, können Sie die OTA-Update-Funktion von AWS IoT Greengrass verwenden, um das Modellpaket auf Ihrem Gerät bereitzustellen. Mit AWS IoT Greengrass können Sie Ihre IoT-Geräte remote überwachen, während Sie mit SageMaker Edge Manager die ML-Modelle auf den Geräten überwachen und warten können.
F: In welcher Beziehung steht Amazon SageMaker Edge Manager zu AWS Panorama? Wann sollte ich Amazon SageMaker Edge Manager im Vergleich zu AWS Panorama verwenden?
AWS bietet die größte Breite und Tiefe der Funktionen zum Ausführen von Modellen auf Edge-Geräten. Wir verfügen über Services zur Unterstützung einer Vielzahl von Anwendungsfällen, einschließlich Computervision, Spracherkennung und vorausschauender Wartung.
Für Unternehmen, die Computervision auf Edge-Geräten wie Kameras und Geräten ausführen möchten, können Sie AWS Panorama verwenden. Panorama bietet einsatzbereite Computervision-Anwendungen für Edge-Geräte. Der Einstieg in AWS Panorama ist einfach, indem Sie sich bei der Cloud-Konsole anmelden, das Modell angeben, das Sie in Amazon S3 oder SageMaker verwenden möchten, und anschließend Geschäftslogik als Python-Skript schreiben. AWS Panorama kompiliert das Modell für das Zielgerät und erstellt ein Anwendungspaket, damit es mit nur wenigen Klicks auf Ihren Geräten bereitgestellt werden kann. Darüber hinaus können unabhängige Softwaranbieter, die ihre eigenen benutzerdefinierten Anwendungen erstellen möchten, das AWS Panorama SDK verwenden, und Gerätehersteller können das Geräte-SDK verwenden, um ihre Geräte für AWS Panorama zu zertifizieren.
Kunden, die ihre eigenen Modelle erstellen und die Modellfunktionen genauer steuern möchten, können Amazon SageMaker Edge Manager verwenden. SageMaker Edge Manager ist ein verwalteter Service zum Vorbereiten, Ausführen, Überwachen und Aktualisieren von ML-Modellen für Flotten von Edge-Geräten wie Smart-Kameras, Smart-Lautsprechern und Robotern für alle Anwendungsfälle wie die Verarbeitung natürlicher Sprache, Betrugserkennung und vorausschauende Wartung. SageMaker Edge Manager ist für ML-Edge-Entwickler gedacht, die die Kontrolle über ihr Modell wünschen, einschließlich der Entwicklung verschiedener Modellfunktionen und der Überwachung von Modellen für Drift. Jeder ML-Edge-Entwickler kann SageMaker Edge Manager über die SageMaker-Konsole und die SageMaker-APIs verwenden. SageMaker Edge Manager bietet die Funktionen von SageMaker zum Erstellen, Trainieren und Bereitstellen von Modellen in der Cloud für Edge-Geräte.
F: In welchen AWS-Regionen ist Amazon SageMaker Edge Manager verfügbar?
Amazon SageMaker Edge Manager ist in sechs AWS-Regionen verfügbar: USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Oregon), EU (Irland), EU (Frankfurt) und Asien-Pazifik (Tokio). Weitere Details finden Sie in der Liste regionaler AWS-Services.
F: Was ist Amazon SageMaker Neo?
Mit Amazon SageMaker Neo ist es möglich, ML-Modelle einmal zu trainieren und dann überall in der Cloud und am Edge auszuführen. SageMaker Neo optimiert automatisch Modelle, die mit gängigen Deep-Learning-Frameworks entwickelt wurden und auf mehreren Hardwareplattformen bereitgestellt werden können. Optimierte Modelle können bis zu 25 mal schneller ausgeführt werden und verbrauchen weniger als ein Zehntel der Ressourcen eines typischen ML-Modells.
F: Was sind die ersten Schritte mit Amazon SageMaker Neo?
Melden Sie sich für die ersten Schritte mit Amazon SageMaker Neo bei der Amazon-SageMaker-Konsole an, wählen Sie ein trainiertes Modell aus, folgen Sie dem Beispiel zum Kompilieren von Modellen, und stellen Sie das entstandene Modell auf Ihrer Ziel-Hardwareplattform bereit.
F: Was sind die Hauptkomponenten der Amazon SageMaker Neo?
Amazon SageMaker Neo umfasst zwei wesentliche Hauptkomponenten – einen Compiler und eine Laufzeit. Zuerst liest der Neo-Compiler Modelle, die von unterschiedlichen Frameworks exportiert wurden. Anschließend wandelt er die Framework-spezifischen Funktionen und Operationen in eine Framework-unabhängige Zwischenrepräsentation um. Danach führt er eine Reihe von Optimierungen aus. Im Anschluss erzeugt der Compiler Binärcode für die optimierten Operationen und schreibt sie in eine freigegebene Objektbibliothek. Außerdem speichert der Compiler die Modelldefinition und Parameter in separaten Dateien. Während der Ausführung lädt die Neo-Laufzeit die vom Compiler erzeugten Artefakte – Modelldefinition, Parameter und die freigegebene Objektbibliothek zur Modellausführung.
F: Muss ich mein Modell mit Amazon SageMaker trainieren, um Amazon SageMaker zur Konvertierung des Modells verwenden zu können?
Nein. Sie können Modelle an anderer Stelle trainieren und Neo dazu verwenden, sie für Amazon SageMaker ML-Instances oder von AWS IoT Greengrass unterstützte Geräte zu optimieren.
F: Welche Modelle unterstützt Amazon SageMaker Neo?
Derzeit unterstützt Amazon SageMaker Neo die gängigsten Deep-Learning-Modelle, die Computer-Vision-Anwendungen unterstützen, und die gängigsten Entscheidungsbaum-Modelle, die heute in Amazon SageMaker verwendet werden. Neo optimiert die Leistung von AlexNet-, ResNet-, VGG-, Inception-, MobileNet-, SqueezeNet- und DenseNet-Modellen, die in MXNet und TensorFlow trainiert wurden, und von Klassifizierungs- und Random Cut Forest-Modellen, die in XGBoost trainiert wurden.
F: Welche Hardwareplattformen unterstützt Amazon SageMaker Neo?
Die Listen der unterstützten Cloud-Instances, Edge-Geräte und Framework-Versionen finden Sie in der Dokumentation zu Amazon SageMaker Neo.
F: In welchen AWS-Regionen ist Amazon SageMaker Neo verfügbar?
Um eine Liste der unterstützten Regionen zu sehen, sehen Sie sich die Liste regionaler AWS-Services an.
Savings Plans für Amazon SageMaker
F: Was sind Savings Plans für Amazon SageMaker?
Amazon SageMaker Savings Plans bietet ein flexibles nutzungsbasiertes Preismodell für Amazon SageMaker im Austausch für eine Verpflichtung zu einer konstanten Nutzungsmenge (gemessen in USD/Stunde) für eine ein- oder dreijährige Laufzeit. Savings Plans für Amazon SageMaker bieten die größte Flexibilität und tragen dazu bei, den Preis um bis zu 64 % zu senken. Diese Pläne gelten automatisch für berechtigte SageMaker ML Instances, darunter auch SageMaker Studio Notebooks, SageMaker On-Demand Notebooks, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference und SageMaker Batch Transform, unabhängig von Instance-Familie, Größe oder Region. Zum Beispiel können Sie jederzeit die Nutzung von einer CPU-Instance ml.c5.xlarge, die in USA Ost (Ohio) läuft, auf eine ml.Inf1-Instance in USA West (Oregon) für Inferenz-Workloads jederzeit ändern und automatisch weiterhin den Preis des Savings Plans bezahlen.
F: Warum sollte ich Savings Plans für Amazon SageMaker verwenden?
Wenn Sie eine gleichbleibende Menge an Amazon-SageMaker-Instances (gemessen in USD/Stunde) verwenden und mehrere SageMaker-Komponenten nutzen oder erwarten, dass sich Ihre Technologiekonfiguration (z. B. Instance-Familie, Region) im Laufe der Zeit ändert, können Sie Ihre Einsparungen mit den SageMaker Savings Plans einfacher maximieren und haben gleichzeitig die Flexibilität, die grundlegende Technologiekonfiguration aufgrund von Anwendungsanforderungen oder neuen Innovationen zu ändern. Der Savings-Plans-Tarif gilt automatisch für die Nutzung aller berechtigten ML-Instances, ohne dass manuelle Änderungen erforderlich sind.
F: Was sind die ersten Schritte mit Savings Plans für Amazon SageMaker?
Sie können im AWS Cost Explorer in der AWS-Managementkonsole oder über die API/CLI die ersten Schritte im Zusammenhang mit Savings Plans unternehmen. Mithilfe der Empfehlungen in AWS Cost Explorer können Sie sich mühelos für Savings Plans entscheiden, um so die größten Einsparungen zu erzielen. Die empfohlene stündliche Festmenge basiert auf Ihrer historischen On-Demand-Nutzung und Ihrer Wahl von Plantyp, Laufzeit und Zahlungsoption. Sobald Sie sich für einen Savings Plan registriert haben, wird Ihre genutzte Datenverarbeitungsleistung automatisch zu den ermäßigten Savings-Plans-Preisen berechnet. Jede darüber hinausgehende Nutzung wird zu den normalen On-Demand-Tarifen berechnet.
F: Wie unterscheiden sich die Savings Plans für Amazon SageMaker von den Compute-Savings-Plans für Amazon EC2?
Der Unterschied zwischen Savings Plans für Amazon SageMaker und Savings Plans für EC2 liegt in den enthaltenen Services. Savings Plans für SageMaker gelten nur für die SageMaker ML-Instance-Nutzung.
F: Wie funktionieren Savings Plans bei AWS Organizations/konsolidierter Fakturierung?
Savings Plans können in jedem Konto innerhalb einer AWS-Organisation/Produktreihe mit konsolidierter Fakturierung erworben werden. Standardmäßig gilt der Vorteil von Savings Plans für die Nutzung über alle Konten innerhalb einer AWS-Organisation/konsolidierten Abrechnungs-Familie. Sie können sich aber auch dafür entscheiden, den Vorteil von Savings Plans nur auf das Konto zu beschränken, das sie erworben hat.
Weitere Informationen zu den Amazon SageMaker-Preisen