AMI AWS Deep Learning

Environnements préconfigurés pour créer rapidement des applications d'apprentissage profond

Les AMI AWS Deep Learning fournissent aux professionnels de l'apprentissage machine et aux chercheurs l'infrastructure et les outils nécessaires pour accélérer l'apprentissage profond dans le cloud, à n'importe quelle échelle. Vous pouvez rapidement lancer des instances Amazon EC2 préinstallées avec des frameworks de deep learning fréquemment utilisés, tels qu'Apache MXNet et Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Pytorch, Chainer et Keras, pour former des modèles d'IA sur mesure sophistiqués, expérimenter de nouveaux algorithmes ou apprendre de nouvelles compétences et techniques.

Que vous utilisiez des instances GPU ou CPU Amazon EC2, aucuns frais supplémentaires ne vous sont facturés pour les AMI Deep Learning : vous payez seulement les ressources AWS nécessaires pour stocker et exécuter vos applications.

TensorFlow

88% des projets TensorFlow dans le cloud fonctionnent sur AWS.

Nucleus Research donne cinq raisons pour les techniciens de choisir AWS pour l'apprentissage profond plutôt que d'autres prestataires cloud.

Choisir une AMI AWS Deep Learning

Faire ses premiers pas dans l'apprentissage profond peut se révéler une entreprise longue et fastidieuse, même pour les professionnels de l'apprentissage machine expérimentés. Les AMI que nous proposons répondent aux différents besoins des développeurs. Pour vous aider tout au long du processus de démarrage, vous pouvez également consulter le guide de sélection des AMI ainsi que d'autres ressources d'apprentissage profond.

AMI Conda

Pour les développeurs qui souhaitent utiliser des packages pip préinstallés de frameworks d'apprentissage profond dans des environnements virtuels séparés, l'AMI basée sur Conda est disponible dans les versions Ubuntu, Amazon Linux et Windows 2016.

Découvrez les avantages de l'AMI Conda et faites vos premiers pas en suivant ce guide détaillé.

AMI de base

Pour les développeurs qui souhaitent commencer avec une base neutre afin de définir des référentiels de moteurs d'apprentissage profond privés ou des versions personnalisées de moteurs d'apprentissage profond, l'AMI de base est disponible dans les versions Ubuntu et AmazonLinux

Découvrez les avantages de l'AMI de base et faites vos premiers pas en suivant ce guide détaillé.

Prise en charge des frameworks d'apprentissage profond

Les AMI AWS Deep Learning prennent en charge tous les frameworks d'apprentissage profond courants pour vous permettre de définir des modèles et de les former à grande échelle. Conçues pour Amazon Linux et Ubuntu, les AMI sont préconfigurées avec Apache MXNet et Gluon, TensorFlow, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, PyTorch, Chainer et Keras, ce qui vous permet de déployer et d'exécuter rapidement n'importe lequel de ces frameworks à grande échelle.

600x400_TensorFlow_Logo
600x400_mxnet_Logo
gluon-logo
chainer_600x
600x400_Caffe_Logo
600x400_Theano_Logo
pytorch-logo-flat
600x400_keras_Logo
600x400_Microsoft_Cognitive-Toolkit_Logo
600x400_Caffe2_Logo

Accélérez la formation de modèles

Pour accélérer vos activités de développement et de formation de modèles, les AMI AWS Deep Learning offrent la dernière technologie d'accélération GPU NVIDIA via des pilotes CUDA et cuDNN préconfigurés, ainsi que la bibliothèque Intel Math Kernel Library (MKL), en plus de l'installation de packages Python fréquemment utilisés et de la plate-forme Anaconda. 

Instances GPU

Nvidia

Les instances P3 offrent des performances jusqu'à 14 fois supérieures à celles des instances de calcul GPU Amazon EC2 de la génération précédente. Disposant d'un maximum de 8 GPU NVIDIA Tesla V100, les instances P3 offrent jusqu'à 1 pétaflops de précision mixte, 125 téraflops de précision simple et 62 téraflops de précision double en matière de performances de virgule flottante.

Puissantes options de calcul

Intel

Les instances C5 sont alimentées par des processeurs scalables Intel Xeon 3,0 GHz et permettent à un seul cœur de fonctionner à 3,5 GHz à l'aide de la technologie Intel Turbo Boost. Les instances C5 offrent un ratio mémoire/processeur virtuel (vCPU) plus élevé et apportent 25 % d'amélioration en matière de prix/performance par rapport aux instances C4, et sont idéales pour les applications d'inférence exigeantes.

Packages Python

python-logo

Les AMI AWS Deep Learning intègrent des notebooks Jupyter chargés avec les noyaux Python 2.7 et Python 3.5, ainsi que des packages Python appréciés, notamment le kit SDK AWS pour Python.

Plateforme Anaconda

Anaconda_ForTrademark_HorizontalLarge_white

Pour simplifier la gestion et le déploiement des packages, les AMI AWS Deep Learning installent la plate-forme de science des données Anaconda2 et Anaconda3, pour le traitement de données à grande échelle, les analyses prédictives et le calcul scientifique.

Démarrez avec l'apprentissage profond sur AWS

icon1

Créer un compte AWS

Accédez immédiatement aux  services AWS.
icon2

Obtenir l'AMI AWS Deep Learning

Sélectionnez la bonne AMI et le bon type d'instance pour votre projet.

icon3

Commencer à créer avec AWS

Commencez à créer avec ces didacticiels simples.

Amazon SageMaker pour l'apprentissage machine

En savoir plus sur Amazon SageMaker

Amazon SageMaker est un service entièrement géré permettant aux développeurs et aux spécialistes des données de créer, former et déployer rapidement et facilement des modèles d'apprentissage automatique à n'importe quelle échelle. Amazon SageMaker supprime tous les obstacles qui ralentissent généralement les développeurs désireux d'utiliser l'apprentissage automatique.

Prêt à concevoir ?
Démarrer avec les AMI AWS Deep Learning
D'autres questions ?
Contactez-nous