Infrastructure AWS Machine Learning

Infrastructure performante, rentable et économe en énergie pour les applications de machine learning

Des entreprises du Fortune 500 aux start-ups, les entreprises de divers secteurs adoptent de plus en plus l'apprentissage automatique (ML) pour un large éventail de cas d'utilisation, notamment le traitement du langage naturel (NLP), la vision par ordinateur, les assistants vocaux, la détection des fraudes et les moteurs de recommandation. En outre, les grands modèles de langage (LLM) qui comportent des centaines de milliards de paramètres ouvrent la voie à de nouveaux cas d'utilisation de l'IA générative, par exemple la génération d'images et de textes. La croissance des applications ML s'accompagne d'une augmentation de l'utilisation, de la gestion et du coût des ressources de calcul, de stockage et de mise en réseau. Il est essentiel d'identifier et de choisir la bonne infrastructure informatique pour réduire la consommation d'énergie élevée, réduire les coûts excessifs et éviter la complexité lors de la formation et du déploiement des modèles de machine learning en production. Pour vous aider à accélérer votre innovation en matière de machine learning, AWS propose la combinaison idéale d'outils et d'accélérateurs de machine learning spécialisés hautement performants, rentables et économes en énergie, optimisés pour les applications de machine learning.

Avantages

Facilité d'utilisation

Facilité d'utilisation

Accédez à des accélérateurs de machine learning spécialement conçus tels qu'AWS Trainium et AWS Inferentia pour former et déployer des modèles de fondation (FM) et les intégrer dans vos applications à l'aide des services gérés AWS tels qu'Amazon SageMaker et Amazon Bedrock. SageMaker fournit aux data scientists et aux développeurs de machine learning des modèles de fondation pré-entraînés qui peuvent être entièrement personnalisés en fonction de votre cas d'utilisation et de vos données spécifiques, puis déployés en production. Bedrock fournit aux clients une expérience sans serveur pour créer des applications d'IA génératives à l'aide de FM via une API.

Haute performance

Haute performance

Vous pouvez alimenter votre application ML avec l'infrastructure ML la plus performante d'AWS. Les instances Amazon EC2 P4d et Amazon EC2 Trn1 sont idéales pour une formation de machine learning de haute performance. Pour l'inférence, les instances Amazon EC2 Inf2, alimentées par Inferentia2 de deuxième génération, offrent un débit 4 fois plus élevé et une latence jusqu'à 10 fois plus faible que les instances basées sur Inferentia de la génération précédente.

Rentable

Rentable

La grande variété de services d'infrastructure vous permet de choisir l'infrastructure adaptée à votre budget. Les instances Amazon EC2 Trn1 basées sur AWS Trainium permettent de réaliser 50 % d'économies sur les coûts de formation et les instances Amazon EC2 Inf2 basées sur AWS Inferentia2 offrent un rapport prix/performances jusqu'à 40 % supérieur à celui des instances Amazon EC2 comparables. Vous pouvez réinvestir ces économies pour accélérer l'innovation et développer votre activité.

Prise en charge des frameworks de ML

Durable

AWS s'engage à atteindre l'objectif d'Amazon de consommation énergétique nette zéro carbone d'ici 2040. Amazon SageMaker, un service de machine learning entièrement géré, propose des accélérateurs de machine learning optimisés pour l'efficacité énergétique et la réduction de la consommation d'énergie lors de la formation et du déploiement de modèles de machine learning en production. Les instances Amazon EC2 alimentées par des accélérateurs de machine learning, tels qu'AWS Trainium et AWS Inferentia2, offrent des performances par watt jusqu'à 50 % supérieures à celles d'autres instances Amazon EC2 comparables.

Mettre à l'échelle

Évolutif

Les clients AWS ont accès à un calcul, une mise en réseau et un stockage pratiquement illimités afin qu'ils puissent les mettre à l'échelle. Selon vos besoins, vous pouvez augmenter d'un processeur graphique ou d'un accélérateur de machine learning à des milliers, et à des téraoctets à des pétaoctets de stockage. En utilisant le cloud, vous n'avez pas à investir dans toute l'infrastructure possible. À la place, bénéficiez d'un calcul, d'un stockage et de réseaux élastiques.

Charges de travail ML durables

Les instances de calcul AWS prennent en charge les principaux cadres de machine learning, tels que TensorFlow et PyTorch. Ils prennent également en charge des bibliothèques de modèles et des boîtes à outils telles que Hugging Face pour un large éventail de cas d'utilisation du ML. Les AWS Deep Learning AMIs (AWS DLAMIs) et les AWS Deep Learning Containers (AWS DLCs) sont préinstallés avec des optimisations pour les cadres et les boîtes à outils de ML afin d'accélérer l'apprentissage profond dans le cloud.

Solutions

Infrastructure ML

*Selon vos besoins en matière d'inférence, vous pouvez explorer d'autres instances d'Amazon EC2 pour l'inférence basée sur le processeur.

Témoignages de réussite

  • Pepperstone
  • Logo Pepperstone

    Pepperstone utilise l'infrastructure ML d'AWS pour offrir une expérience de trading globale fluide à plus de 40 000 visiteurs uniques par mois. Ils utilisent Amazon SageMaker pour automatiser la création et le déploiement de modèles de machine learning. En optant pour SageMaker, ils ont pu réduire les frictions entre les équipes DevOps et de science des données et réduire le temps de formation des modèles de machine learning de 180 heures à 4,3 heures.

  • Finch Computing
  • Logo Finch Computing

    Finch Computing utilise AWS Inferentia avec PyTorch sur AWS pour créer des modèles de machine learning afin d'effectuer des tâches de NLP telles que la traduction linguistique et la désambiguïsation des entités, réduisant ainsi ses coûts d'inférence de plus de 80 % par rapport aux GPU.

  • Amazon Robotics
  • Logo Amazon Robotics

    Amazon Robotics a utilisé Amazon SageMaker pour développer un modèle sophistiqué de machine learning qui a remplacé la numérisation manuelle dans les centres de traitement Amazon. Amazon Robotics a utilisé Amazon SageMaker et AWS Inferentia pour réduire les coûts d'inférence de près de 50 %

  • Money Forward
  • Logo de Money Forward

    « Nous avons lancé un service de chatbot basé sur l'IA à grande échelle sur les instances Amazon EC2 Inf1 et avons réduit notre latence d'inférence de 97 % par rapport à des instances comparables basées sur GPU, tout en réduisant les coûts. Sur la base de leur migration réussie vers les instances Inf1, ils évaluent également les instances EC2 Trn1 basées sur AWS Trainium afin d'améliorer les performances et les coûts du machine learning de bout en bout.

  • Rad AI
  • Logo Rad AI

    Rad AI utilise l'IA pour automatiser les flux de radiologie et aider à simplifier les comptes rendus radiologiques. Avec les nouvelles instances P4d Amazon EC2, Rad AI offre une inférence plus rapide et permet d'entraîner des modèles 2,4 fois plus rapidement, et ce avec une précision accrue.

  • Amazon Alexa
  • Logo Amazon Alexa
    « L'intelligence d'Amazon Alexa, basée sur l'IA et le ML et alimentée par Amazon Web Services, est disponible sur plus de 100 millions d'appareils aujourd'hui - et nous promettons à nos clients qu'Alexa deviendra toujours plus intelligente, plus conversationnelle, plus proactive et encore plus agréable. Pour tenir cette promesse, nous devons continuer à réduire les temps de réponse et les coûts d'infrastructure de machine learning. Nous sommes donc extrêmement impatients d'utiliser les instances Inf1 Amazon EC2 pour réduire la latence d'inférence et le coût par inférence de la synthèse vocale Alexa. Avec Amazon EC2 Inf1, nous pourrons perfectionner le service rendu aux dizaines de millions de clients qui utilisent Alexa chaque mois. »

    Tom Taylor, vice-président senior, Amazon Alexa

  • Autodesk
  • Logo Autodesk
    « Autodesk fait progresser la technologie cognitive de son assistant virtuel optimisé par l'IA, Autodesk Virtual Agent (AVA), en utilisant Inferentia. AVA répond à plus de 100 000 questions de clients par mois en appliquant la compréhension du langage naturel (NLU) et des techniques de deep learning pour extraire le contexte, l'intention et la signification des demandes de renseignements. En pilotant Inferentia, nous sommes en mesure d'obtenir un débit 4,9 fois supérieur à celui de G4dn pour nos modèles NLU, et nous sommes impatients d'exécuter d'autres charges de travail sur les instances Inf1 basées sur Inferentia. »

    Binghui Ouyang, spécialiste des données principal, Autodesk

  • Sprinklr
  • Logo Sprinklr
    « Sprinklr fournit une plateforme de gestion unifiée de l'expérience client (Unified-CXM) qui combine différentes applications pour le marketing, la publicité, la recherche, le service client, les ventes et l'engagement sur les réseaux sociaux. L'objectif est toujours d'avoir une latence plus faible, ce qui se traduit par une meilleure expérience client. Grâce aux instances Amazon EC2 Inf1, nous sommes en mesure d'y parvenir. »

    vice-président de l'infrastructure et du DevOps, Sprinklr

Optimisez votre infrastructure ML avec AWS