Publié le: Apr 26, 2018

Les AMI de AWS Deep Learning incluent désormais des optimisations avancées pour Chainer 4 et Microsoft Cognitive Toolkit (CNTK) 2.5.1, conçues pour offrir une formation plus performante sur les instances Amazon EC2.  

Pour les formations basées sur GPU, les AMI sont livrés avec Chainer 4 entièrement configuré avec CuPy, NVIDIA CUDA 9 et cuDNN 7 pour tirer parti de l'entraînement de précision mixte sur les GPU NVIDIA Volta V100 alimentant les instances Amazon EC2 P3. Chainer 4 fournit également un support amélioré pour TensorCores dans les GPU Volta utilisés dans les calculs de basse précision. Les AMI déploient également la construction du GPU CNTK 2.5.1 avec la prise en charge de NVIDIA CUDA 9 et cuDNN7 pour une formation accélérée sur les instances Amazon EC2 P3.

Pour les formations basées sur CPU, les AMI sont équipées de Chainer 4 configuré avec le module Deep Learning Extension (iDeep) d'Intel qui accélère les opérations d'apprentissage en profondeur telles que la convolution sur l'architecture Intel alimentant les instances d’Amazon EC2, C5 et C4, optimisées par calcul. Les AMI déploient également la version CNTK 2.5.1 uniquement pour CPU, entièrement configurée avec la bibliothèque Intel Math Kernel pour Deep Neural Networks (Intel MKL-DNN) pour optimiser les routines du réseau neuronal.

Les AMI Deep Learning déploient automatiquement ces versions plus performantes de structures d'apprentissage en profondeur optimisés pour l'instance EC2 de votre choix, lorsque vous activez l'environnement virtuel de la structure pour la première fois. Ceci est similaire à la façon dont les AMI déploient également la version optimisée de TensorFlow pour les familles d'instances Amazon EC2.

Commencez à utiliser les AMI Deep Learning AWS en utilisant le guide du développeur. Vous pouvez également vous abonner à notre forum de discussion pour recevoir des annonces de lancement et poser vos questions.