Publié le: Mar 20, 2019
Les AMI AWS Deep Learning sont désormais disponibles sur Amazon Linux 2, la nouvelle génération d'Amazon Linux, en plus d'Amazon Linux et d'Ubuntu. De plus, les AMI AWS Deep Learning intègrent MXNet 1.4.0, Chainer 5.3.0, PyTorch 1.0.1 et TensorFlow 1.13.1, directement personnalisés depuis la source et ajustés pour une formation hautes performances sur les instances Amazon EC2.
Sur les instances de CPU, TensorFlow 1.13 est directement personnalisé depuis la source pour améliorer les performances sur les processeurs Intel Xeon Platinum qui alimentent les instances EC2 C5. La formation d'un modèle ResNet-50 avec des données ImageNet synthétiques à l'aide d'une AMI Deep Learning génère un débit 9,4 fois plus rapide que pour le stockage de binaires TensorFlow 1.13. Les instances de GPU proposent également une build de TensorFlow 1.13 optimisée par le GPU configurée avec NVIDIA CUDA 10 et cuDNN 7.4 pour profiter d'une formation de précision mélangée sur les GPU Volta V100 alimentant les instances EC2 P3. Pour les développeurs cherchant à dimensionner leur formation TensorFlow à plusieurs GPU, les AMI Deep Learning intègrent une structure de formation distribuée Horovod. La structure est entièrement optimisée pour utiliser efficacement les topologies de clusters de formation distribués composés d'instances Amazon EC2 P3. La formation d'un modèle ResNet-50 à l'aide de TensorFlow 1.13 et de Horovod dans l'AMI Deep Learning génère un débit 27 % plus rapide que pour le stockage TensorFlow 1.13 sur 8 nœuds.
Les AMI AWS Deep Learning intègrent la dernière version d'Apache MXNet 1.4 qui apporte des améliorations en matière de performances et de convivialité. MXNet 1.4 intègre des liaisons Java à des fins d'inférence, des liaisons Julia, des opérateurs de flux de contrôle expérimental, la gestion de mémoire JVM, ainsi que de nombreuses autres améliorations internes. Cette version améliore également la prise en charge de MXNet pour Intel MKL-DNN avec une quantification et une optimisation des graphiques. Cette fonctionnalité réduit l'utilisation de la mémoire et améliore le temps d'inférence sans entraîner de perte de précision significative.
Démarrez rapidement avec les AMI AWS Deep Learning grâce aux guides de démarrage rapide et didacticiels de niveaux débutant à avancé dans notre Guide du développeur. Lorsque vous activez un environnement Conda, les AMI Deep Learning déploient automatiquement les versions des frameworks les plus performantes, optimisées pour l'instance EC2 de votre choix. Pour obtenir une liste complète des environnements et des versions prises en charge par les AMI AWS Deep Learning, consultez les notes de mise à jour. Vous pouvez également vous abonner à notre forum de discussion pour recevoir des annonces de lancement et poser vos questions.