Apache MXNet sur AWS

Créer des applications d'apprentissage automatique apprenant rapidement et s'exécutant n'importe où

Apache MXNet sur AWS est un cadre d’apprentissage et d’inférence rapide et évolutif, qui dispose d’une API concise et simple d’utilisation pour le machine learning.

MXNet inclut l’interface Gluon qui permet aux développeurs de tous niveaux de compétence de bien démarrer avec le deep learning aussi bien sur le Cloud que dans des appareils périphériques et des applications mobiles. En seulement quelques lignes de code Gluon, vous pouvez créer une régression linéaire, des réseaux convolutifs et des LSTM récurrents pour la détection d'objets, la reconnaissance vocale, la recommandation et la personnalisation.

Vous pouvez commencer à utiliser MxNet sur AWS avec une expérience entièrement gérée avec Amazon SageMaker, une plateforme permettant de créer, de former et de déployer des modèles d'apprentissage automatique à grande échelle. Vous pouvez également utiliser les AMI AWS de deep learning pour créer des environnements et des flux de travail personnalisés avec MxNet et d'autres frameworks, dont TensorFlow, PyTorch, Chainer, Keras, Caffe, Caffe2 et Microsoft Cognitive Toolkit.

Contribuer au projet Apache MXNet

Récupérez des exemples de code, des manuels et des didacticiels sur la page du projet GitHub.

Avantages de l'apprentissage profond grâce à MXNet

Simplicité d'utilisation avec Gluon

La bibliothèque Gluon de MXNet offre une interface de haut niveau qui simplifie la réalisation de prototypes, la formation et le déploiement de modèles d'apprentissage profond sans sacrifier la vitesse d'apprentissage. Gluon propose des abstractions de haut niveau pour les couches prédéfinies, les fonctions de perte et les optimisateurs. Le service offre une structure flexible avec laquelle la collaboration est intuitive et le débogage facile.

Des performances accrues

Les charges de travail d'apprentissage profond peuvent être distribuées sur plusieurs GPU avec une dimensionnabilité quasi linéaire, ce qui signifie que des projets extrêmement grands peuvent être gérés en moins de temps. De la même manière, le dimensionnement est automatique et dépend du nombre de GPU dans un cluster. Les développeurs gagnent également du temps et optimisent leur productivité en exécutant une inférence sans serveur par lot.

Pour l'IdO et l'Edge

En plus de gérer la formation et le déploiement multi-GPU de modèles complexes dans le cloud, MXNet produit des représentations de modèle de réseau neural pouvant s'exécuter sur des emplacements périphériques de moindre puissance comme un Raspberry Pi, un smartphone ou un ordinateur portable, et traiter des données à distance en temps réel.

Choix et flexibilité

MXNet prend en charge un large choix de langages de programmation, dont notamment C++, JavaScript, Python, R, Matlab, Julia, Scala,Clojure et Perl, pour que vous puissiez vous lancer avec les langages que vous connaissez déjà. Au niveau du backend, cela dit, tout le code est compilé en C++ pour garantir les meilleures performances possibles, quel que soit le langage utilisé pour concevoir les modèles.

Parcours de client

Cimpress
logo beeva horizontal1

Études de cas

Il y a plus de 500 contributeurs sur le projet MXNet, y compris des développeurs d'Amazon, NVIDIA, Intel, Samsung ou encore Microsoft. Découvrez comment les clients utilisent MXNet pour des projets d'apprentissage approfondi. Pour plus d'études de cas, consultez les blogs AWS Machine Learning et MXNet.

Amazon SageMaker pour le machine learning

En savoir plus sur Amazon SageMaker

Amazon SageMaker est un service entièrement géré permettant aux développeurs et aux spécialistes des données de créer, former et déployer rapidement et facilement des modèles d'apprentissage automatique à n'importe quelle échelle. Amazon SageMaker supprime tous les obstacles qui ralentissent généralement les développeurs désireux d'utiliser l'apprentissage automatique.

D'autres questions ?
Contactez-nous