Mit der AWS Deep Learning-AMIs erhalten ML-Nutzer und -Wissenschaftler die Infrastruktur und Tools, die Deep Learning-Arbeiten beliebiger Größenordnungen in der Cloud beschleunigen. Amazon EC2-Instances unter Amazon Linux, Ubuntu oder Windows lassen sich so schnell mit vorinstallierten Deep Learning-Frameworks starten. Beispiele hierfür sind Apache MXNet und Gluon, TensorFlow, das Microsoft Cognitive Toolkit (CNTK), Caffe, Caffe2, Theano, Torch und Keras. Mit diesen Frameworks können Sie komplexe benutzerdefinierte AI-Modelle trainieren, neue Algorithmen testen oder neue Techniken lernen.

Egal, ob Sie Amazon EC2-GPU- oder CPU-Instances benötigen, die Verwendung der Deep Learning-AMIs ist für Sie kostenlos. Sie zahlen lediglich für die AWS-Ressourcen, die zum Speichern und Ausführen Ihrer Anwendungen erforderlich sind.

Entwicklerhandbuch

Hilft beim Starten und der Verwendung der Deep Learning-AMI (DLAMI). Dieses Handbuch enthält verschiedene Anwendungsfälle, die sowohl für das Training als auch für Inferenzmechanismen des Deep Learning typisch sind. Sie erhalten hier auch Entscheidungshilfen zur Auswahl der für Ihren Anwendungsfall geeigneten AMI und des passenden Instance-Typs.
HTML | PDF