Infrastructure AWS Machine Learning

Hautes performances, rentable et optimisée pour le machine learning
Les entreprises de toutes tailles et de tous secteurs d'activité adoptent de plus en plus le machine learning (ML) pour un large éventail de cas d'utilisation, dont les moteurs de recommandation, la détection d'objets, les assistants vocaux et la détection de fraude. Cet intérêt grandissant pour le ML s'accompagne d'une utilisation, d'une gestion et de coûts accrus en matière de ressources de calcul, de stockage et de réseaux. Il est parfois difficile de disposer de la quantité adéquate d'infrastructure de calcul pour répondre aux besoins des applications de machine learning, mais sans cela, entraîner et déployer des modèles de ML peut se révéler onéreux et chronophage. Pour vous aider à accélérer votre innovation en matière de ML, AWS vous offre la combinaison idéale d'instances Amazon EC2 hautes performances et à bas coût et d'outils sur mesure optimisés pour le machine learning.

Avantages

Hautes performances

Hautes performances 

AWS vous offre l'infrastructure de calcul de ML la plus performante dans le cloud. Pour l'entraînement, les instances P4 Amazon EC2 offrent des performances 2,5 fois supérieures à celles des instances de la génération précédente, ainsi que les réseaux les plus rapides, jusqu'à 400 Gbit/s. Concernant l'inférence, les instances Inf1 Amazon EC2 offrent un débit jusqu'à 2,3 fois supérieur à celui des instances basées sur des GPU de la génération actuelle.

En savoir plus >>
Optimisée pour le ML

Optimisée pour le machine learning

Les instances de calcul AWS prennent en charge les principaux cadres de machine learning, tels que TensorFlow et PyTorch. Elle prennent également en charge les modèles et boîtes à outils comme Hugging Face pour une grande variété de cas d'utilisation du machine learning. Les AWS Deep Learning AMI et les Deep Learning Containers sont livrés pré-installés avec des optimisations pour les boîtes à outils et les cadres de ML afin d'accélérer le deep learning dans le cloud.

En savoir plus >>
Simple d'utilisation

Simple d'utilisation

Amazon SageMaker, un service de ML entièrement géré, est le moyen le plus simple et le plus rapide de démarrer avec l'infrastructure AWS. Il offre également des outils sur mesure, parmi lesquels l'étiquetage des données, la préparation des données, l'ingénierie des fonctionnalités, la détection des biais statistiques, l'AutoML, l'entraînement, le réglage, l'hébergement, l'explicabilité, la surveillance et les flux. SageMaker repose sur les décennies d'expérience d'Amazon ML.

En savoir plus >>
Évolutif

Évolutif

Les clients AWS ont accès à un calcul, une mise en réseau et un stockage pratiquement illimités afin qu'ils puissent les mettre à l'échelle. Vous pouvez les augmenter ou les réduire en fonction de vos besoins, d'un GPU à des milliers, ou, pour le stockage, des téraoctets aux pétaoctets. En utilisant le cloud, vous n'avez pas à investir dans toute l'infrastructure possible. À la place, bénéficiez d'un calcul, d'un stockage et de réseaux élastiques.

En savoir plus >>
Rentable

Rentable

La grande variété de services d'infrastructure vous permet de choisir l'infrastructure adaptée à votre budget. Choisissez n'importe quelle instance basée sur CPU, GPU ou accélérateur et payez uniquement à l'utilisation, en évitant ainsi de payer pour les capacités inactives. Les instances Inf1 Amazon EC2 à technologie AWS Inferentia offrent un coût par inférence jusqu'à 70 % inférieur à celui des instances comparables basées sur des GPU de la génération actuelle.

En savoir plus >>

Ce que nous offrons

Infrastructure ML

Clients

Amazon Alexa

L'intelligence d'Amazon Alexa, basée sur l'IA et le ML, est aujourd'hui disponible sur plus de 100 millions d'appareils. Alexa est de plus en plus intelligente, familière, proactive, et même, de plus en plus agréable. Alexa utilise l'instance Inf1 Amazon EC2 pour diminuer la latence d'inférence et le coût par inférence de la synthèse vocale d'Alexa.

Anthem

Autodesk fait progresser la technologie cognitive avec un assistant virtuel optimisé par l'IA, Autodesk Virtual Agent (AVA). AVA répond à plus de 100 000 questions de clients par mois en appliquant la compréhension du langage naturel (NLU) et des techniques de deep learning pour extraire le contexte, l'intention et la signification des demandes de renseignements. En pilotant AWS Inferentia, ils ont pu obtenir un débit 4,9 fois supérieur à celui des instances basées sur GPU.

Rad AI

Rad AI utilise l'IA pour automatiser les flux de radiologie et aider à simplifier les comptes rendus radiologiques. Avec les nouvelles instances P4d Amazon EC2, Rad AI offre une inférence plus rapide et permet d'entraîner des modèles 2,4 fois plus rapidement, et ce avec une précision accrue.

Passez à l'étape suivante avec AWS