Veröffentlicht am: Dec 3, 2019

Die AWS Deep Learning AMIs sind auf Ubuntu 18.04, Ubuntu 16.04, Amazon Linux 2 und Amazon Linux mit TensorFlow 1.15, Tensorflow 2.0, PyTorch 1.3.1, MXNet 1.6.0-rc0 verfügbar. Ebenfalls neu in dieser Version ist die Unterstützung für AWS Neuron, ein SDK zur Ausführung von Inferenz mit AWS Inferentia Chips. Die Chips bestehen aus Compiler, Laufzeit- und Profilerstellungstools, die es Entwicklern ermöglichen, hochleistungsfähige und latenzarme Inferenz-Workloads auf Inferentia-basierten EC2 Inf1-Instances auszuführen. Neuron ist in gängige Frameworks für Machine Learning wie TensorFlow, Pytorch und MXNet bereits integriert, um eine optimale Leistung der EC2 Inf1-Instances zu gewährleisten. Kunden, die Amazon EC2 Inf1 Instances nutzen, erhalten die höchste Leistung bei niedrigsten Kosten für Machine Learning Inferenzen in der Cloud und müssen nicht mehr den ungünstigen Kompromiss zwischen Latenzoptimierung oder Durchsatz eingehen, wenn sie große maschinelle Lernmodelle ausführen.  

AWS Deep Learning AMIs unterstützen auch andere Schnittstellen wie Keras, Chainer und Gluon - vorinstalliert und vollständig konfiguriert, so dass Sie mit der Entwicklung Ihrer Deep Learning-Modelle in wenigen Minuten beginnen können, während Sie die Rechenleistung und Flexibilität der Amazon EC2-Instances nutzen. Wenn eine Conda-Umgebung aktiviert wird, setzen die Deep Learning AMIs automatisch leistungsfähigere Builds von Frameworks ein, die für die EC2-Instance Ihrer Wahl optimiert sind. Eine vollständige Liste der vom AWS Deep Learning-AMI unterstützten Frameworks und Versionen finden Sie in den Versionshinweisen.

Nutzen Sie unsere Einführungsanleitungen und Tutorials für Anfänger bis Fortgeschrittene in unserem Entwicklerhandbuch, um sich schnell mit den AWS Deep Learning-AMIs vertraut zu machen. Sie können sich auch in unserem Diskussionsforum registrieren, um Ankündigungen zur Markteinführung zu erhalten oder Fragen zu stellen.