Amazon SageMaker

Maschinelles Lernen für jeden Developer und Datenwissenschaftler.

Amazon SageMaker ermöglicht es jedem Developer und Datenwissenschaftler, Modelle für maschinelles Lernen schnell zu erstellen, zu trainieren und zu implementieren. Amazon SageMaker ist ein vollständig verwalteter Service, der den gesamten Workflow des Machine Learning abdeckt. Er kennzeichnet und präpariert Ihre Daten, wählt einen Algorithmus aus, trainiert das Modell, optimiert und passt es für die Bereitstellung an, trifft Voraussagen und ergreift Maßnahmen. Ihre Modelle können mit geringerem Aufwand und zu niedrigeren Kosten schneller in der Produktion bereitgestellt werden.

ERSTELLEN

Trainingsdaten erfassen und vorbereiten

Datenkennzeichnung und vorgefertigte Notebooks für gängige Probleme

Wählen und optimieren Sie Ihren ML-Algorithmus

Eingebaute, leistungsstarke Algorithmen und Hunderte einsatzbereite Algorithmen im AWS Marketplace

TRAINIEREN

Umgebungen für das Training einrichten und verwalten

Training mit einem Klick auf einer hochleistungsstarken Infrastruktur

Modell trainieren und abstimmen

Einmal trainieren, überall ausführen und Modelloptimierung

BEREITSTELLEN

Modell in der Produktion bereitstellen

Bereitstellung mit nur einem Mausklick

Produktionsumgebung skalieren und verwalten

Vollständig verwaltet, mit automatischer Skalierung für 75 % weniger


Ausgewählte Kunden

State Farm
Intuit
Siemens
NFL
Expedia
Liberty Mutual
Formula 1
Coinbase
GE-Healthcare
Convoy
Korean Air
Change Healthcare

Trainingsdaten erfassen und vorbereiten

Trainingsdaten schnell kennzeichnen

Mit Amazon SageMaker Ground Truth können Sie im Handumdrehen höchst präzise Trainingsdatensätze erstellen und verwalten. Ground Truth bietet einen einfachen Zugriff auf öffentliche und private menschliche Kennzeichner und stellt ihnen vorgefertigte Workflows und Schnittstellen für gängige Kennzeichnungsaufgaben bereit. Darüber hinaus lernt Ground Truth von den menschlichen Kennzeichnern, hochwertige, automatische Anmerkungen bei deutlich geringeren Kennzeichnungskosten hinzuzufügen.

Weitere Informationen »
70-percent-reduction
ground-truth

Gehostete Notebooks

Vollständig verwaltete Jupyter-Notebooks, die Sie in der Cloud verwenden können, oder aus Ihrer lokalen Umgebung mitgebrachte Notebooks, um Ihre Daten zu erkunden und zu visualisieren und Ihr Modell zu entwickeln. Sie können nicht nur von Neuem beginnen, sondern auch aus Dutzenden von vorgefertigten Notebooks wählen, die Sie entweder so verwenden, wie sie sind, oder sie an Ihre spezifischen Bedürfnisse anpassen, um Ihre Trainingsdaten schnell und einfach zu erkunden und zu visualisieren. Für viele gängige Probleme, wie Empfehlungen und Personalisierungen, Betrugserkennung, Prognose, Bildklassifizierung, Prognosen zur Kundenabwanderung, Kundenansprache, Protokollverarbeitung und Anomalieerkennung sowie Speech-to-Text, sind Lösungen verfügbar.

 

Weitere Informationen »
jupyter-logo-white
hosted-notebooks

Wählen und optimieren Sie Ihren Algorithmus für das maschinelle Lernen

Amazon SageMaker konfiguriert und optimiert automatisch TensorFlow, Apache MXNet, PyTorch, Chainer, Scikit-learn, SparkML, Horovod, Keras und Gluon. Häufig verwendete Algorithmen für das Machine Learning sind integriert und auf Maßstab, Geschwindigkeit und Genauigkeit abgestimmt, wobei über 200 zusätzliche vorab trainierte Modelle und Algorithmen auf dem AWS Marketplace verfügbar sind. Sie können auch einen anderen Algorithmus oder ein anderes Framework einbringen, indem Sie den Algorithmus bzw. das Framework in einen Docker-Container integrieren.

10x-faster
logo-tesnorflow
logo-mxnet
logo-pytorch
logo-chainer
logo-keras
logo-gluon
logo-horovod

Umgebungen für das Training einrichten und verwalten

Training mit einem Klick

Beginnen Sie mit nur einem Mausklick, Ihr Modell zu trainieren. Amazon SageMaker verwaltet die gesamte zugrunde liegende Infrastruktur und kann für Datensätze in Petabyte-Größe ganz einfach skaliert werden.

 

Das schnellste verteilte Machine Learning in der Cloud

Amazon EC2 P3-Instances bieten 8 NVIDIA Tesla-GPUs.

 

64 skalierbare Intel Xeon Skylake-vCPUs mit AVX-512

25 GBPS Netzwerkdurchsatz

16 GB Arbeitsspeicher pro GPU

 

Der ideale Ort für die Ausführung von TensorFlow

Die TensorFlow-Optimierungen von AWS ermöglichen eine beinahe lineare Skalierungseffizienz über mehrere Hundert GPUs für den Betrieb auf Cloud-Niveau ohne allzu hohen Verwaltungsaufwand, um präzisere, ausgereiftere Modelle in kürzerer Zeit zu trainieren.

Vollständig verwaltetes Trainieren und Hosten

Nahezu lineare Skalierung über mehrere Hundert GPUs

75% niedrigere Inferenzkosten

 

TENSORFLOW, STANDARD
65p
TENSORFLOW, FÜR AWS OPTIMIERT
90p

Skalierungseffizienz mit 256 GPUs

Abstimmung und Optimierung Ihres Modells

Automatische Abstimmung Ihres Modells

Die automatische Modellabstimmung nutzt maschinelles Lernen für die schnelle Abstimmung Ihres Modells, um dessen Präzision zu verbessern. Auf diese Weise entfällt der langwierige Prozess der manuellen Anpassung von Modellparametern durch Ausprobieren. Die automatische Modellabstimmung führt bei mehreren Trainingsläufen eine Optimierung der Hyperparameter durch. Dazu erkennt die Modellabstimmung interessante Merkmale Ihrer Daten und ermittelt, wie diese Merkmale interagieren und die Genauigkeit beeinflussen. Sie sparen Tage oder gar Wochen bei der Erhöhung der Qualität Ihres trainierten Modells.

Einmal trainieren, überall ausführen

Mit Amazon SageMaker Neo können Sie ein Modell einmal trainieren und es überall bereitstellen. Mit maschinellem Lernen optimiert SageMaker Neo automatisch jedes trainierte Modell, das mit einem gängigen Framework für die gewählte Hardwareplattform entwickelt wurde, ohne an Genauigkeit einzubüßen. Anschließend können Sie Ihr Modell auf EC2-Instances und SageMaker-Instances oder einem anderen Gerät mit der Neo-Laufzeit bereitstellen – auch auf AWS Greengrass-Geräten.

Weitere Informationen »

pull-2x
pull-1-10
img-neo

Modelle in der Produktion bereitstellen und verwalten

Mit nur einem Klick zur Produktion bereitstellen

Amazon SageMaker vereinfacht die Bereitstellung Ihres trainierten Modells in der Produktion mit nur einem Mausklick, sodass Sie unmittelbar beginnen können, Prognosen (sogenannte Inferenzen) für Echtzeit- oder Stapeldaten zu generieren. Ihr Modell wird auf einem Cluster aus Amazon SageMaker-Instances mit Auto Scaling ausgeführt, die über mehrere Availability Zones verteilt sind, um sowohl höchste Leistung als auch höchste Verfügbarkeit zu gewährleisten. Amazon SageMaker enthält außerdem integrierte A/B-Testfunktionen, mit denen Sie Ihr Modell testen und mit verschiedenen Versionen experimentieren können, um bestmögliche Ergebnisse zu erzielen.

Modelle am Edge ausführen

Mit AWS Greengrass können Sie Modelle, die mit Amazon SageMaker trainiert wurden, einfach auf Edge-Geräten für die Ausführung von Inferenzen bereitstellen. Mit AWS Greengrass können verbundene Geräte AWS Lambda-Funktionen ausführen, Gerätedaten synchronisiert halten und sicher mit anderen Geräten kommunizieren – auch ohne Verbindung zum Internet.

pull-75p

Senken Sie die Deep-Learning-Inferenzkosten um bis zu 75 Prozent, indem Sie mit Amazon Elastic Inference die elastische GPU-Beschleunigung einfach zu Ihren Amazon SageMaker-Instances hinzufügen. Für die meisten Modelle ist eine vollständige GPU-Instance für die Inferenz zu groß. Auch kann es schwierig sein, die GPU-, CPU- und Speicher-Anforderungen der Deep-Learning-Anwendung mit einem einzigen Instance-Typ zu optimieren. Mit Elastic Inference können Sie den Instance-Typ auswählen, der am besten zu den allgemeinen CPU- und Arbeitsspeicheranforderungen Ihrer Anwendung passt, und den richtigen Umfang der für die Inferenz benötigten GPU-Beschleunigung separat konfigurieren.

Weitere Informationen »

img-TFLOPS

UNTERSTÜTZT

logo-tesnorflow
logo-mxnet

Kundenerfolg

Entwicklung für die Zukunft – mit vollständig verwaltetem verstärkenden Lernen

small-RL-icon

Entwickeln Sie mit verstärkendem Lernen ausgereifte Modelle, die auch ohne vorab gekennzeichnete Trainingsdaten bestimmte Ergebnisse erzielen können. Das verstärkende Lernen ist in Situationen hilfreich, in denen es keine "richtige" Antwort gibt, von der das Modell lernen kann, aber dafür ein optimales Ergebnis, z. B. ein Auto fahren zu können oder positive finanzielle Geschäfte abzuschließen. Die Algorithmen des verstärkenden Lernens lernen nicht von Verlaufsdaten. Stattdessen ergreifen sie Maßnahmen in einem Simulator, bei dem Belohnungen und Strafen das Modell zum gewünschten Verhalten führen.

Bei Amazon SageMaker RL sind vollständig verwaltete Algorithmen für das verstärkende Lernen integriert. SageMaker unterstützt verstärkendes Lernen in zahlreichen Frameworks, darunter TensorFlow und MXNet, sowie in benutzerdefinierten Frameworks, die von Grund auf für das verstärkende Lernen ausgelegt sind, wie Intel Coach oder Ray RLlib.

Amazon SageMaker RL unterstützt auch mehrere Umgebungen für das verstärkende Lernen, darunter 2D- und 3D-Physics-Umgebungen, kommerzielle Simulationsumgebungen wie MATLAB und Simulink und alle Umgebungen, die die Open-Source-Schnittstelle OpenAI Gym unterstützen, einschließlich benutzerdefinierter Umgebungen. Darüber hinaus ermöglicht SageMaker RL das Trainieren mit virtuellen 3D-Umgebungen, die mit Amazon Sumerian und AWS RoboMaker erstellt wurden. Sie können also für alle möglichen Lösungen ein Modell entwerfen – von Marketing- und Finanzsystemen bis hin zu industriellen Steuerungen, Robotern und autonomen Fahrzeugen.

Offen und flexibel

Maschinelles Lernen ganz individuell

Die Technologie für maschinelles Lernen entwickelt sich schnell weiter. Sie müssen flexibel bleiben und auf einen umfassenden Satz an Frameworks und Tools zugreifen können. Bei Amazon SageMaker können Sie die integrierten Container für jedes gängige Framework nutzen oder Ihr bevorzugtes Framework einbringen. In jedem Fall verwaltet Amazon SageMaker die gesamte zugrunde liegende Infrastruktur, die für die Entwicklung, das Trainieren und die Bereitstellung Ihrer Modelle erforderlich ist.

Bessere Edge-Leistung

Über das Open-Source-Projekt Neo sind die Funktionen von SageMaker Neo für alle Entwickler verfügbar. Unserer Ansicht nach ist es erforderlich, dass jeder überall Modelle ausführen kann, damit das volle Potenzial des maschinellen Lernens ausgeschöpft werden kann. Durch den Beitrag zur Open-Source-Arbeit können Hardwareanbieter Neo mit neuen Optimierungen verbessern und das gesamte Hardwareökosystem für maschinelles Lernen weiterentwickeln.

SageMaker passt zu Ihrem Workflow

Im Hintergrund besteht Amazon SageMaker aus separaten Komponenten: Ground Truth, Notebooks, Training, Neo und Hosting. Diese Komponenten sind auf Kompatibilität ausgelegt und bieten so einen umfassenden Service des maschinellen Lernens. Sie lassen sich aber auch unabhängig voneinander verwenden, um vorhandene Workflows des maschinellen Lernens zu erweitern oder Modelle zu unterstützen, die in Ihrem Rechenzentrum oder am Edge ausgeführt werden.

Lernen und beschleunigen

ImgHead_Silverstone_TEST_Car_3

AWS DeepRacer

Ein vollständig autonomes Rennauto im Maßstab 1:18, das alles umfasst, was Sie über das verstärkende Lernen durch autonomes Fahren lernen müssen.

Weitere Informationen »

AWS DeepLens

Lernen Sie durch Projekte, Tutorials und realistische, praxisnahe Erprobung mehr über die Computer-Vision – mit der weltweit ersten Deep-Learning-fähigen Videokamera für Developer.

Weitere Informationen »

AWS-Schulungen und -Zertifizierung zu maschinellem Lernen

AWS Machine Learning University. Strukturierte Kurse zu maschinellem Lernen, die auf demselben Material basieren, mit dem Amazon-Developer durch die Kombination aus Grundlagenwissen und Praxisanwendung geschult werden.

Weitere Informationen »

Amazon ML Solutions Lab

Beim Amazon ML Solutions Lab werden Ihre Teammitglieder durch Amazon-Experten für maschinelles Lernen geschult. Das Lab kombiniert praxisnahe, lehrreiche Workshops, Brainstorming-Sitzungen und professionelle Beratungsgespräche, damit Sie sich von Ihren Unternehmensherausforderungen ausgehend "rückwärts" bewegen und sich Schritt für Schritt durch den Prozess von der Konzipierung eines Modells bis zur Bereitstellung in der Produktion arbeiten können. Anschließend können Sie die erworbenen Fähigkeiten und Kenntnisse überall im Unternehmen einsetzen, um zusätzliche Chancen zu ergreifen.

Weitere Informationen »