AMI AWS Deep Learning

Créez rapidement des applications de deep learning évolutives et sécurisées dans des environnements préconfigurés

Étendez l'entraînement distribué de machine learning (ML) à des milliers d'instances accélérées et déployez en toute transparence des modèles pour l'inférence en production.

Développez sur des accélérateurs, notamment AWS Trainium, AWS Inferentia et les GPU NVIDIA, avec les derniers pilotes, cadres, bibliothèques et outils.

Réduisez les risques grâce à des images de machine personnalisées et stables, régulièrement mises à jour pour corriger les failles de sécurité.

Fonctionnement

Les AWS Deep Learning AMI (DLAMI) fournissent aux professionnels et aux chercheurs en ML un ensemble sécurisé de cadres, de dépendances et d'outils pour accélérer le deep learning dans Amazon EC2. Conçus pour Amazon Linux et Ubuntu, Amazon Machine Images (AMI) est préconfiguré avec TensorFlow, PyTorch, les pilotes et bibliothèques NVIDIA CUDA, Intel MKL, Elastic Fabric Adapter (EFA) et le plug-in AWS OFI NCCL, ce qui vous permet de déployer et d'exécuter rapidement ces cadres et outils à grande échelle.

Diagramme illustrant la façon dont DLAMI peut être lancé à l'aide de la console de gestion AWS, de l'interface de ligne de commande (CLI) AWS, du SDK AWS, de l'API AWS ou de votre terminal local ou de scripts d'application

Cas d'utilisation

Développement de véhicules autonomes

Concevez des modèles avancés de ML à grande échelle pour développer la technologie des véhicules autonomes (AV) en toute sécurité en validant les modèles avec des millions de tests virtuels pris en charge.

Traitement du langage naturel

Accélérez l'installation et la configuration des instances AWS, ainsi que l'expérimentation et l'évaluation avec des cadres et des bibliothèques à jour, notamment Hugging Face Transformers.

Analyse de données pour les soins de santé

Utilisez des fonctionnalités d'analytique avancée, de ML et de deep learning pour identifier les tendances et faire des prédictions à partir de données de santé brutes et disparates.

Entraînement de modèle accéléré

DLAMI comprend la dernière accélération GPU NVIDIA par le biais de pilotes préconfigurés, la bibliothèque Intel Math Kernel Library (MKL), des packages Python et la plateforme Anaconda.

Témoignage client

Bazaarvoice

Cimpress investit et développe des entreprises de personnalisation de masse de l'impression axées sur le client, entrepreneuriales et axées sur le client sur le long terme. Avec Cimpress, il est facile et abordable pour les clients de faire bonne impression, qu'il s'agisse de leurs clients, de leur organisation ou de leurs proches. Qu'il s'agisse de matériel promotionnel renforçant la marque d'une entreprise ou d'une annonce célébrant une naissance, Cimpress combine la personnalisation individuelle souhaitée par les clients avec l'impact tangible des produits physiques.

« Cimpress utilise les AMI AWS Deep Learning pour configurer et déployer rapidement nos environnements de machine learning. Les DLAMI réduisent nos frais opérationnels et nous pouvons commercialiser nos produits plus rapidement en nous concentrant sur le cœur de métier que sont la formation et en déployant nos modèles de deep learning pour la vision par ordinateur et l'IA générative. »

Ajay Joshi, ingénieur logiciel principal – Cimpress

Bazaarvoice

Flip AI est la première plateforme d'observabilité native de GenAI qui ne dépend pas des données ni des plateformes, qui comprend toutes les modalités d'observabilité - y compris les métriques, les événements, les journaux et les traces - et qui génère des analyses prédictives et des analyses de la cause première des incidents en quelques secondes.

« Chez Flip AI, nous avons formé nos propres LLM pour DevOps afin de déboguer les incidents de production et d'aider les entreprises à atteindre le plus haut niveau d'expérience client. Cette formation nécessite une configuration performante et facilement personnalisable. Avec DLAMI, nous n'avons pas besoin de nous battre avec des pilotes CUDA ou des optimisations liées à Pytorch. Cela fonctionne, tout simplement. L'amélioration des pourcentages d'utilisation du GPU nous permet d'entraîner nos modèles de manière plus efficace et de réduire de 10 secondes les temps d'inférence. »

Sunil Mallya, directeur technique – Flip AI

Comment démarrer

Découvrez comment vous pouvez accélérer la formation de vos modèles

Découvrez comment DLAMI peut accélérer votre développement et la formation de vos modèles.

Découvrir les AMI

Sélectionnez la bonne AMI et le bon type d'instance pour votre projet.

Participer aux formations pratiques

Commencez à développer avec des tutoriels de 10 minutes.


Découvrir davantage sur AWS