Probieren Sie die Deep Learning-AMIs aus

Die AWS Deep Learning-AMIs sowie die AWS Deep Learning CloudFormation-Vorlage bilden für Datenanalysten, Anwender von maschinellen Lernmethoden, Wissenschaftler und Forscher die Grundlage zur Beschleunigung der Deep Learning-Arbeit. Mithilfe der Deep Learning-AMIs können Sie Deep Learning in beliebigem Umfang in der Cloud ausführen. Die AMI-Instances – ausgestattet mit Open Source Deep Learning-Frameworks – lassen sich schnell starten, um fortschrittliche benutzerdefinierte KI-Modelle zu trainieren, mit neuen Algorithmen zu experimentieren und sich neue Deep Learning-Fähigkeiten und -Techniken anzueignen. Sie können mit den Deep Learning-AMIs verwaltete, automatisch skalierte GPU-Cluster für ein umfangreiches Training erstellen oder mit Apache MXNet, TensorFlow, Caffe, Theano, Torch und Keras Inferenzen auf trainierten Modellen ausführen. Die AMIs werden von Amazon Web Services für Amazon EC2 bereitgestellt und verwaltet. Für die Deep Learning-AMIs fallen keine zusätzlichen Gebühren an – Sie bezahlen nur für die AWS-Ressourcen, die Sie zur Speicherung und Ausführung Ihrer Anwendungen benötigen.

Wenn Sie Trainings über mehrere Instances hinweg durchführen möchten, können Sie alle Ihre Ressourcen einfach und schnell über die Deep Learning CloudFormation-Vorlage starten, um die Deep-Learning-AMIs zu verwendet. Mit den Vorlagen von AWS CloudFormation skalieren Sie mehrere EC2 Instances für große Rechenaufgaben, beispielsweise das Einlernen vielschichtiger neuronaler Netze. Entwickler können mithilfe der verteilten Deep Learning CloudFormation-Vorlage einen horizontal skalierten, flexiblen Cluster aus P2- oder G2-Instances erstellen. Für umfassendere Trainingsanforderungen empfiehlt sich die Nutzung von Deep Learning-AMIs. Mehr über die Verwendung von CloudFormation für Deep Learning erfahren Sie im AWS Compute-Blog zu EC2.

Die sowohl für Linux als auch für Ubuntu erhältlichen Deep Learning-AMIs werden für einen schnellen Einstieg mit diversen Deep Learning-Frameworks und Tutorials bereitgestellt.  Die Deep Learning-AMIs übernehmen die Installation von Abhängigkeiten, verfolgen Bibliotheksversionen und überprüfen die Codekompatibilität. Nachfolgend finden Sie eine Liste der wichtigsten Bibliotheken, in denen bereits alle erforderlichen Abhängigkeiten vordefiniert und vorkonfiguriert sind:

Deep Learning im AWS Marketplace

Die AWS Deep Learning-AMIs sind im AWS Marketplace für Amazon Linux und Ubuntu 14.04 mit Unterstützung für Python 2 und 3 verfügbar.

Verfügbare AWS-Regionen:

EU (Irland)

USA Ost (Nord-Virginia)

USA West (Oregon)


 


– Jupyter mit Python 2.7- und Python 3.4-Kernel, AWS CLI sowie den Python-Paketen Matplotlib, scikit-image, cpplint, Pylint, Pandas, Graphviz, Boto, Boto 3, Bokeh und Seaborn
- Anaconda2- und Anaconda3-Datenanlyseplattform

Für jedes Framework können mithilfe eines Einzelbefehl-Bash-Skripts unmittelbar MNIST-Trainings ausgeführt werden, in denen die korrekte Installation, Konfiguration und Modellgenauigkeit veranschaulicht wird. Sie finden diese in folgenden Verzeichnissen:

Ubuntu Linux: /home/ubuntu/src/bin

Amazon Linux: /home/ec2-user/src/bin

- Intel MKL (aktuell nur MXNet)
- Nvidia Cuda und CuDNN (alle Frameworks)


Apache MXNet

MXNet ist eine flexible, effiziente, portable und skalierbare Open-Source-Bibliothek für Deep Learning. Diese unterstützt deklarative und imperative Programmiermodelle in einer Vielzahl von Programmiersprachen. Deep Learning-Anwendungen lassen sich damit effektiv und dennoch einfach programmieren. MXNet unterstützt auf effiziente Weise das automatische parallele Planen von Quellcode-Abschnitten für die zeitgleiche Verwendung in einer verteilte Umgebung. Zudem ist MXNet portable und kann dank Speicheroptimierungsfunktionen sowohl auf Mobiltelefonen als auch auf kompletten Servern ausgeführt werden.

Caffe

Caffe ist ein Deep Learning-Framework, das auf Ausdruck, Geschwindigkeit und Modularität basiert. Es wird vom Berkeley Vision and Learning Center (BVLC) und durch Beiträge aus der Community entwickelt.

Theano

Theano ist eine Python-Bibliothek, die Ihnen das Definieren, Optimieren und Auswerten mathematischer Ausdrücke unter der effizienten Einbeziehung mehrdimensionaler Arrays ermöglicht.

TensorFlow

TensorFlow ist eine Open-Source-Softwarebibliothek für numerische Berechnungen mit Datenflussdiagrammen.

Torch

Torch ist ein wissenschaftliches Datenverarbeitungsframework mit breiter Unterstützung für Machine Learning-Algorithmen und besonderem Augenmerk auf GPUs. Es ist dank der einfachen und schnellen Skripterstellungssprache LuaJIT und einer zugrunde liegenden C/CUDA-Implementierung benutzerfreundlich und effizient.

CNTK

CNTK – das Cognitive Toolkit von Microsoft – ist ein einheitliches Deep Learning-Toolkit von Microsoft Research.

Keras

Keras ist eine High-Level-Bibliothek für neuronale Netzwerke, die in Python entwickelt wurde und auf TensorFlow oder Theano aufsetzen kann. Sie wurde mit Fokus auf schnelle Experimente entwickelt.

Erste Schritte mit Amazon AI Services