Veröffentlicht am: Apr 26, 2018

Die AWS Deep Learning AMIs enthalten jetzt erweiterte Optimierungen für Chainer 4 und Microsoft Cognitive Toolkit (CNTK) 2.5.1, die darauf zugeschnitten sind, Schulungen mit höherer Leistung für Amazon EC2-Instances bereitzustellen.  

Für GPU-basiertes Training werden die AMIs mit Chainer 4 ausgeliefert, der vollständig mit CuPy, NVIDIA CUDA 9 und cuDNN 7 konfiguriert ist, um das Training mit gemischter Präzision auf NVIDIA Volta V100-GPUs für Amazon EC2 P3-Instances zu nutzen. Chainer 4 bietet außerdem einen verbesserten Support für TensorCores in Volta-GPUs, die bei Berechnungen mit geringer Genauigkeit verwendet werden. Die AMIs setzen auch den CNTK 2.5.1 GPU mit NVIDIA CUDA 9 und cuDNN7-Support für beschleunigte Schulungen auf Amazon EC2 P3-Instances ein.

Für CPU-basierte Schulungen sind die AMIs mit Chainer 4 ausgestattet, der mit Intels Deep Learning Extension Package (iDeep) konfiguriert ist und tiefgreifende Lernvorgänge wie Convolution auf Intel-Architektur mit Amazon EC2-compute-optimierten C5- und C4-Instances beschleunigt. Die AMIs verwenden jetzt auch den CNTK 2.5.1 CPU-only-Build, der vollständig mit Intel Math Kernel Library für Deep Neural Networks (Intel MKL-DNN) konfiguriert ist, um neurale Netzwerkroutinen zu optimieren.

Die Deep Learning AMIs stellen automatisch diese leistungsfähigeren Builds von Deep-Learning-Frameworks bereit, die für die EC2-Instance Ihrer Wahl optimiert sind, wenn Sie die virtuelle Umgebung des Frameworks zum ersten Mal aktivieren. Dies ähnelt der Art und Weise, wie AMIs auch dem optimierten Build von TensorFlow für Amazon EC2-Instance-Familien bereitstellen.

Für erste Schritte mit den AWS Deep Learning AMIs gehen Sie bitte zum Entwicklerhandbuch. Sie können sich auch in unserem Diskussionsforum registrieren, um Ankündigungen zu erhalten und Ihre Fragen zu veröffentlichen.