AWS Deep Learning-AMIs

Vorkonfigurierte Umgebungen zum schnellen Entwickeln von DL-Anwendungen

Mit den AWS Deep Learning AMIs erhalten ML-Nutzer und Wissenschaftler die Infrastruktur und Tools, um Deep-Learning-Arbeiten beliebiger Größenordnungen in der Cloud zu beschleunigen. Sie können schnell Amazon EC2-Instances mit vorinstallierten, gängigen DL-Frameworks wie Apache MXNet, Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, PyTorch, Chainer und Keras starten, um komplexe, individuelle KI-Modelle zu trainieren, mit neuen Algorithmen zu experimentieren oder neue Fähigkeiten und Techniken zu lernen.

Egal, ob Sie Amazon EC2-GPU- oder CPU-Instances benötigen, Sie müssen nichts zusätzlich für die Deep Learning AMIs bezahlen. Sie zahlen lediglich für die AWS-Ressourcen, die zum Speichern und Ausführen der Anwendungen erforderlich sind.

TensorFlow

88 % der TensorFlow-Projekte in der Cloud werden in AWS ausgeführt.

Nucleus Research zeigt fünf Gründe auf, warum Deep-Learning-Nutzer AWS für Deep Learning im Vergleich zu anderen Cloud-Anbietern wählen.

Auwählen einer AWS Deep Learning AMI

Selbst für erfahrene ML-Anwender kann der Einstieg in Deep Learning zeitaufwändig aunf schwierig sein. Die von uns angebotenen AMIs erfüllen die vielschichtigen Anforderungen der Entwickler. Sehen Sie sich auch den AMI-Auswahlleitfaden und weitere Deep-Learning-Ressourcen an, um in die Materie einzutauchen.

Conda-AMI

Entwicklern, die vorinstallierte Pip-Pakete mit Deep Learning-Frameworks in separaten virtuellen Umgebungen wünschen, steht die auf Conda basierende AMI sowohl für Ubuntu, Amazon Linux als auch für Windows 2016-Versionen zur Verfügung.

Erfahren Sie mehr über die Vorteile der Conda-AMI und steigen Sie mit diesem Schritt-für-Schritt-Leitfaden in die Materie ein.

Base-AMI

Entwicklern, die komplett neue private DL-Engine-Repositorys oder individuelle DL-Engine-Builds erstellen wollen, steht die Base-AMI sowohl für Ubuntu als auch für Amazon Linux zur Verfügung. 

Erfahren Sie mehr über die Vorteile der Base-AMI und steigen Sie mit diesem Schritt-für-Schritt-Leitfaden in die Materie ein.

Unterstützung für Deep-Learning-Frameworks

Die AWS Deep Learning AMIs unterstützen alle gängigen DL-Frameworks und erlauben Ihnen die Definition von Modellen und das groß angelegte Training dieser. Die für Amazon Linux und Ubuntu konzipierten AMIs sind mit folgenden Anwendungen vorkonfiguriert: Apache MXNet und Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, PyTorch, Chainer und Keras. Diese Frameworks können bei Bedarf schnell bereitgestellt und ausgeführt werden.

600x400_TensorFlow_Logo
600x400_mxnet_Logo
gluon-logo
chainer_600x
600x400_Caffe_Logo
600x400_Theano_Logo
pytorch-logo-flat
600x400_keras_Logo
600x400_Microsoft_Cognitive-Toolkit_Logo
600x400_Caffe2_Logo

Beschleunigung Ihres Modelltrainings

Um Ihre Entwicklungs- und Modelltrainingsbemühungen voranzutreiben, bieten die AWS Deep Learning AMIs GPU-Beschleunigung durch vorkonfigurierte CUDA- und cuDNN-Treiber sowie die Intel MKL (Intel Math Kernel Library). Darüber hinaus werden gängige Python-Pakete und die Plattform Anaconda installiert. 

GPU-Instances

Nvidia

P3-Instances bieten bis zu 14-mal bessere Leistung als Amazon EC2-GPU-Datenverarbeitungs-Instances der vorherigen Generation. Mit bis zu 8 NVIDIA Tesla V100 GPUs, erreichen P3-Instances bis zu ein Petaflop Mixed-Precision, 125 Teraflops Single-Precision und 62 Teraflops Double-Precision Floating Point Operations.

Leistungsstarke Datenverarbeitung

Intel

C5-Instances werden von 3,0 GHz Intel Xeon Scalable-Prozessoren unterstützt und gestatten dank Intel Turbo Boost-Technologie, dass ein einziger Kern mit bis zu 3,5 GHz läuft. C5-Instances bieten ein höheres Arbeitsspeicher-zu-vCPU-Verhältnis und ein 25 % besseres Preis-Leistungs-Verhältnis im Vergleich zu C4-Instances. Sie eignen sich ideal für anspruchsvolle Inferenz-Anwendungen.

Python-Pakete

python-logo

In den AWS Deep Learning AMIs ist bereits Folgendes installiert: Jupyter-Notebooks, die mit Python 2.7- und Python 3.5-Kernels geladen sind, sowie Ihre bevorzugten gängigen Python-Pakete, einschließlich des AWS-SDK für Python.

Anaconda-Plattform

Anaconda_ForTrademark_HorizontalLarge_white

Um die Paketverwaltung und -bereitstellung zu vereinfachen, installieren die AWS Deep Learning AMIs die Data-Science-Plattformen Anaconda2 und Anaconda3 für die Verarbeitung großer Datenmengen, Predictive Analytics und wissenschaftliche Berechnung.

Steigen Sie in Deep Learning in AWS ein

icon1

Registrieren Sie sich für ein AWS-Konto

Sie erhalten sofort Zugang zu  AWS-Services.
icon2

Holen Sie sich das AWS Deep Learning-AMI

Wählen Sie die richtige AMI und den Instance-Typ für Ihr Projekt aus.

icon3

Beginnen Sie die Entwicklung mit AWS

Steigen Sie mit diesen einfachen Tutorials in die Entwicklung ein.

Amazon SageMaker für maschinelles Lernen

Weitere Informationen über Amazon SageMaker

Amazon SageMaker ist ein vollständig verwalteter Service, der es Entwicklern und Datenwissenschaftlern ermöglicht, schnell und einfach Machine Learning-Modelle jeder Größenordnung zu erstellen, zu trainieren und zu implementieren. Amazon SageMaker beseitigt alle Hindernisse, die Entwickler normalerweise beim Einsatz des maschinellen Lernens behindern.

Bereit zum Entwickeln?
Erste Schritte mit AWS Deep Learning AMIs
Sind noch Fragen offen?
Kontakt