Introduction

Dans sa forme la plus élémentaire, le machine learning (ML) est conçu pour fournir des outils et des services numériques permettant d'apprendre à partir des données, d'identifier des modèles, de faire des prédictions, puis d'agir en fonction de ces prédictions. Presque tous les systèmes d'intelligence artificielle (IA) actuels sont créés à l'aide du ML. Le ML utilise de grandes quantités de données pour créer et valider une logique de décision. Cette logique de décision constitue la base du « modèle » de l'IA.

Un sous-ensemble du machine learning en pleine expansion est l'IA générative, qui repose sur de grands modèles préentraînés sur un vaste jeu de données, communément appelés modèles de fondation (FM). Les services AWS basés sur l'IA générative incluent :

  • Amazon Bedrock (qui vous permet de créer et de mettre à l'échelle des applications basées sur l'IA générative à l'aide des FM)
  • Amazon CodeWhisperer (un compagnon de codage basé sur l'IA qui génère des suggestions de code en temps réel en fonction de vos commentaires en langage naturel et de tout code antérieur dans votre environnement de développement intégré)

Ce guide de décision vous aidera à poser les bonnes questions, à évaluer vos critères et votre problème commercial, et à déterminer les services les plus adaptés à vos besoins.

En moins de deux minutes, Dr. Werner Vogels, CTO chez Amazon, explique comment fonctionne l'IA générative et comment vous pouvez l'utiliser. Cette vidéo fait partie d'une discussion plus longue entre le Dr. Vogels et Swami Sivasubramanian, vice-président d'AWS chargé des bases de données, de l'analytique et du machine learning, parlent du vaste paysage de l'IA générative, des raisons pour lesquelles elle n'est pas très médiatisée et de la manière dont AWS démocratise l'accès à de vastes langages et à des modèles de base.

Durée de lecture

25 minutes

Objectif

Aider à déterminer quels services de ML AWS répondent le mieux à vos besoins.

Niveau

Débutant

Date de la dernière mise à jour

26 juillet 2023

Compréhension

Alors que les organisations continuent d'adopter les technologies d'intelligence artificielle et de machine learning, on ne soulignera jamais assez l'importance de comprendre et de choisir parmi les services de ML AWS.
 
AWS fournit une gamme de services de ML conçus pour aider les entreprises à créer, former et déployer des modèles de ML plus rapidement et plus facilement. Ces services peuvent être utilisés pour résoudre un large éventail de problèmes métier tels que la prévision du taux de désabonnement des clients, la détection des fraudes et la reconnaissance vocale et d'image.
AWS aborde le ML comme une série de couches technologiques qui s'appuient les unes sur les autres.
 
La couche supérieure est composée de services d'IA. C'est là qu'AWS intègre le ML dans différents cas d'utilisation, tels que la personnalisation, les prévisions, la détection des anomalies et la transcription vocale.
 
La couche intermédiaire est composée des services de ML AWS, notamment Amazon SageMaker, et les technologies de deep learning (DL). C'est là qu'AWS construit son infrastructure de ML, afin que vous puissiez vous concentrer uniquement sur le travail différencié que constitue la création de modèles de ML.
 
La couche inférieure est composée de services d'IA générative. L'IA générative peut créer de nouveaux contenus, notamment des conversations, des histoires, des images, des vidéos et de la musique. Comme toutes les IA, l'IA générative est alimentée par des modèles de ML, de très grands modèles préentraînés sur de vastes quantités de données et communément appelés modèles de fondation.

En outre, AWS propose le matériel spécialisé et accéléré suivant pour l'entraînement et l'inférence de ML hautes performances.
 
  • Les instances Amazon EC2 P4d sont équipées de GPU NVIDIA A100 Tensor Core, parfaitement adaptés aux tâches d'entraînement et d'inférence dans le cadre du machine learning. AWS Trainium est l'accélérateur de ML de deuxième génération qu'AWS a spécialement conçue pour l'entraînement DL de modèles comportant plus de 100 milliards de paramètres.
  • Les instances Inf2 Amazon EC2 basées sur AWS Inferentia2 sont conçues pour offrir de hautes performances à moindre coût dans Amazon EC2 pour vos applications d'inférence de DL et d'IA générative.

Considération

Lors de la résolution d'un problème métier avec les services de ML AWS, la prise en compte de plusieurs critères clés peut contribuer à garantir le succès. La section suivante décrit certains des principaux critères à prendre en compte lors du choix d'un service de ML.

  • La première étape du cycle de vie du ML consiste à définir le problème métier. Il est essentiel de comprendre le problème que vous essayez de résoudre pour choisir le bon service de ML AWS, car différents services sont conçus pour résoudre différents problèmes. Il est également important de déterminer si le ML convient le mieux au problème de votre entreprise.

    Une fois que vous avez déterminé que le ML est la solution la plus adaptée, vous pouvez commencer par choisir parmi une gamme de services d'IA AWS spécialement conçus (dans des domaines tels que la parole, la vision et les documents).

    Amazon SageMaker fournit une infrastructure entièrement gérée si vous avez besoin de créer et d'entraîner vos propres modèles. AWS propose une gamme de cadres de ML avancés et de choix d'infrastructures pour les cas où vous avez besoin de modèles de ML hautement personnalisés et spécialisés. AWS propose également un large éventail de modèles de base populaires pour créer de nouvelles applications avec l'IA générative.

  • Le choix de l'algorithme de ML pour le problème métier que vous essayez de résoudre dépend du type de données avec lequel vous travaillez, ainsi que des résultats souhaités. Les informations suivantes expliquent comment chacune des principales catégories de services d'IA/ML AWS vous permet de travailler avec ses algorithmes :

    • Services d'IA spécialisés : ces services offrent une capacité limitée à personnaliser l'algorithme de ML, car il s'agit de modèles préentraînés optimisés pour des tâches spécifiques. Vous pouvez généralement personnaliser les données d'entrée et certains paramètres, mais vous n'avez pas accès aux modèles de ML sous-jacents ni la possibilité de créer vos propres modèles.
    • Amazon SageMaker : ce service offre le maximum de flexibilité et de contrôle sur l'algorithme de ML. Vous pouvez utiliser SageMaker pour créer des modèles personnalisés à l'aide de vos propres algorithmes et cadres, ou utiliser des modèles et algorithmes prédéfinis fournis par AWS. Cela permet un degré élevé de personnalisation et de contrôle du processus de ML.
    • Cadres et infrastructure de ML de niveau inférieur : ces services offrent la plus grande flexibilité et le meilleur contrôle sur l'algorithme de ML. Vous pouvez utiliser ces services pour créer des modèles de ML hautement personnalisés à l'aide de leurs propres algorithmes et cadres. Cependant, l'utilisation de ces services nécessite une expertise significative en matière de ML et peut ne pas être réalisable dans tous les cas d'utilisation.
  • Si vous avez besoin d'un point de terminaison privé dans votre VPC, vos options varient en fonction de la couche de services de ML AWS que vous utilisez. Il s'agit notamment de :

    • Services d'IA spécialisés : la plupart des services d'IA spécialisés ne prennent actuellement pas en charge les points de terminaison privés dans les VPC. Toutefois, les étiquettes personnalisées Amazon Rekognition et Amazon Comprehend Custom sont accessibles à l'aide des points de terminaison d'un VPC.
    • Services d'IA de base : Amazon Translate, Amazon Transcribe et Amazon Comprehend prennent tous en charge les points de terminaison d'un VPC.
    • Amazon SageMaker : SageMaker fournit un support intégré pour les points de terminaison d'un VPC, vous permettant de déployer leurs modèles entraînés en tant que point de terminaison accessible uniquement depuis leur VPC.
    • Cadres et infrastructure de ML de niveau inférieur : vous pouvez déployer vos modèles sur des instances Amazon EC2 ou dans des conteneurs au sein de votre VPC, afin de contrôler totalement la configuration réseau.
  • Les services d'IA de haut niveau, tels qu'Amazon Rekognition et Amazon Transcribe, sont conçus pour gérer une grande variété de cas d'utilisation et offrir des performances élevées en termes de rapidité. Cependant, il est possible qu'ils ne répondent pas à certaines exigences de latence.

    Si vous utilisez des cadres et une infrastructure de ML de niveau inférieur, nous vous recommandons de tirer parti d'Amazon SageMaker. Cette option est généralement plus rapide que la création de modèles personnalisés en raison de son service entièrement géré et de ses options de déploiement optimisées. Bien qu'un modèle personnalisé hautement optimisé puisse surpasser SageMaker, sa création nécessitera une expertise et des ressources importantes.

  • La précision des services de ML AWS varie en fonction du cas d'utilisation spécifique et du niveau de personnalisation requis. Les services d'IA de haut niveau, tels qu'Amazon Rekognition, sont basés sur des modèles préentraînés qui ont été optimisés pour des tâches spécifiques et offrent une grande précision dans de nombreux cas d'utilisation.

    Dans certains cas, vous pouvez choisir d'utiliser Amazon SageMaker, qui fournit une plateforme plus flexible et personnalisable pour créer et entraîner des modèles de ML personnalisés. En créant vos propres modèles, vous pourrez peut-être obtenir une précision encore plus élevée que ce qui est possible avec des modèles préentraînés.

    Vous pouvez également choisir d'utiliser des cadres et des infrastructures de ML, tels que TensorFlow et Apache MXNet, pour créer des modèles hautement personnalisés offrant la plus grande précision possible pour votre cas d'utilisation spécifique.

  • AWS élabore des modèles de fondation (FM) en gardant à l'esprit l'IA responsable à chaque étape de son processus de développement. Tout au long de la conception, du développement, du déploiement et des opérations, nous prenons en compte un certain nombre de facteurs, notamment :

    1. Exactitude (dans quelle mesure un résumé correspond au document sous-jacent ; si une biographie est exacte sur le plan factuel)
    2. Équité (si les résultats traitent les groupes démographiques de la même manière)
    3. Considérations relatives à la propriété intellectuelle et aux droits d'auteur
    4. Utilisation appropriée (filtrage des demandes de conseils juridiques, de diagnostics médicaux ou d'activités illégales des utilisateurs)
    5. Toxicité (discours de haine, blasphèmes et insultes)
    6. Confidentialité (protection des informations personnelles et des demandes des clients)

    AWS développe des solutions pour résoudre ces problèmes dans les processus utilisés pour acquérir les données d'entraînement, dans les FM eux-mêmes et dans la technologie utilisée pour prétraiter les demandes des utilisateurs et les résultats de post-traitement.

Choix

Maintenant que vous connaissez les critères selon lesquels vous évaluerez vos options de service de ML, vous êtes prêt à choisir le service de ML AWS qui convient à vos besoins organisationnels.

Le tableau suivant indique les services de ML optimisés à chaque circonstance. Utilisez-le pour déterminer le service de ML AWS le plus adapté à votre cas d'utilisation.

Services d'IA/ML et technologies de soutien
Quand les utiliseriez-vous ?
À quelles fins sont-ils optimisés ?
Fermer

Amazon Comprehend

Amazon Comprehend vous permet d'effectuer des tâches de traitement du langage naturel, telles que l'analyse des sentiments, la reconnaissance d'entités, la modélisation de sujets et la détection du langage, sur vos données textuelles.

Fermer

Amazon Lex

Amazon Lex vous aide à créer des chatbots et des assistants vocaux capables d'interagir avec les utilisateurs dans une interface en langage naturel. Il fournit des fonctionnalités prédéfinies de gestion du dialogue, de compréhension du langage et de reconnaissance vocale.

Fermer

Amazon Polly

Utilisez Amazon Polly pour convertir du texte en discours réaliste, ce qui facilite la création d'applications et de services vocaux.

Fermer

Amazon Rekognition

Amazon Rekognition est conçu pour vous permettre d'ajouter des analyses d'images et de vidéos à vos applications. Il suffit de fournir une image ou une vidéo à l'API Amazon Rekognition : le service peut alors identifier les objets, les personnes, le texte, les scènes et les activités. Ce service peut également détecter n'importe quel contenu inapproprié.

Fermer

Amazon Textract

Amazon Textract vous aide à extraire du texte et des données à partir de documents, de formulaires et de tableaux numérisés, ce qui facilite le stockage, l'analyse et la gestion de ces données.

Fermer

Amazon Transcribe

Amazon Transcribe permet aux clients de transcrire automatiquement les enregistrements audio et vidéo en texte. Cela permet d'économiser du temps et des efforts par rapport à la transcription manuelle.

Fermer

Amazon Translate

Utilisez ce service pour traduire du texte d'une langue à l'autre en temps réel. Cela est particulièrement utile si votre entreprise exerce ses activités dans plusieurs pays ou a besoin de communiquer avec des locuteurs non natifs.

Utilisez les principaux services d'intelligence artificielle fournis par AWS lorsque vous avez besoin de fonctionnalités spécifiques prédéfinies à intégrer à vos applications, sans avoir besoin de personnalisations approfondies ou d'expertise en machine learning.
Optimisé pour faciliter l'utilisation et ne nécessite pas beaucoup d'expertise en matière de codage, de configuration ou de machine learning.
Fermer

Amazon Bedrock

Amazon Bedrock est un service entièrement géré qui permet d'accéder aux modèles de fondation d'Amazon et des meilleures start-ups d'IA via une API, afin que vous puissiez choisir parmi une grande variété de modèles de fondation celui qui vous convient le mieux.

Utilisez Amazon Bedrock pour accéder aux modèles de fondation des principales start-ups d'IA et d'Amazon via une API.
Optimisé pour la flexibilité : vous permet de choisir le modèle le mieux adapté à vos besoins parmi une gamme de FM.
Fermer

Amazon CodeWhisperer

Amazon CodeWhisperer est un outil de codage basé sur l'IA en temps réel qui permet de créer du code pour des tâches routinières ou chronophages et indifférenciées, de travailler avec des API ou des kits SDK inconnus, d'utiliser correctement et efficacement les API AWS et d'autres scénarios de codage courants tels que la lecture et l'écriture de fichiers, le traitement d'images et la rédaction de tests unitaires.

Utilisez Amazon CodeWhisperer lorsque vous avez besoin de recommandations de code basées sur le ML en temps réel.
Optimisé pour vous fournir des suggestions utiles en temps réel basées sur votre code et vos commentaires existants.
Fermer

SageMaker Autopilot

Amazon SageMaker Autopilot est conçu pour éliminer les lourdes tâches liées à la création de modèles de ML. Il vous suffit de fournir un jeu de données tabulaires et de sélectionner la colonne cible à prédire, et SageMaker Autopilot explorera automatiquement différentes solutions pour trouver le meilleur modèle. Vous pouvez ensuite déployer directement le modèle en production en un seul clic ou itérer sur les solutions recommandées pour améliorer davantage la qualité du modèle.

Fermer

SageMaker Canvas

Amazon SageMaker Canvas vous permet d'utiliser le machine learning pour générer des prédictions sans avoir à écrire de code.

Fermer

SageMaker Data Wrangler

Amazon SageMaker Data Wrangler réduit le temps nécessaire à l'agrégation et à la préparation de données tabulaires et d'images pour le ML. SageMaker Data Wrangler vous permet également de simplifier le processus de préparation des données et d'ingénierie des fonctionnalités, mais aussi d'effectuer toutes les étapes du flux de travail de préparation de données (telles que la sélection, le nettoyage, l'exploration, la visualisation et le traitement des données à l'échelle) depuis une seule interface visuelle. 

Fermer

SageMaker Ground Truth

SageMaker Ground Truth est un service géré permettant d'étiqueter les données afin d'entraîner et d'améliorer les modèles de machine learning. Il fournit un moyen très précis et efficace d'étiqueter de grands jeux de données en utilisant une combinaison d'annotateurs humains et d'algorithmes de machine learning. SageMaker Ground Truth prend en charge un large éventail de types de données, notamment le texte, l'image, la vidéo et l'audio, et s'intègre parfaitement aux autres services SageMaker pour des flux de travail de machine learning de bout en bout.

Fermer

SageMaker JumpStart

SageMaker JumpStart propose des modèles open source préentraînés pour un large éventail de types de problèmes afin de vous aider à démarrer avec le machine learning. Vous pouvez entraîner et ajuster progressivement ces modèles avant leur déploiement. JumpStart fournit également des modèles de solutions qui configurent l'infrastructure pour les cas d'utilisation courants, ainsi que des exemples de blocs-notes exécutables pour le machine learning avec SageMaker.

Fermer

SageMaker Pipelines

Grâce à Amazon SageMaker Pipelines, vous pouvez créer des flux de travail de ML avec un kit SDK Python, puis visualiser et gérer votre flux de travail en utilisant Amazon SageMaker Studio. Amazon SageMaker Pipelines vous permet de stocker et de réutiliser les étapes de flux de travail que vous créez dans SageMaker Pipelines.

Fermer

SageMaker Studio

Un environnement de développement (IDE) entièrement intégré qui permet aux développeurs de créer, d'entraîner et de déployer des modèles de machine learning à grande échelle. Il fournit une interface Web unique pour gérer l'ensemble du cycle de vie du machine learning, de la préparation des données à l'entraînement des modèles, en passant par le déploiement et la surveillance. SageMaker Studio prend également en charge des outils populaires tels que les blocs-notes Jupyter, Git et TensorFlow, et propose une suite d'algorithmes prédéfinis pour les cas d'utilisation courants.

Fermer

SageMaker Studio Lab

Amazon SageMaker Studio Lab est un IDE basé sur le cloud qui permet d'apprendre et d'expérimenter le machine learning à l'aide de blocs-notes Jupyter prédéfinis. Il comprend une gamme de carnets prédéfinis couvrant des sujets tels que la reconnaissance d'images, le traitement du langage naturel et la détection des anomalies.

Utilisez ces services lorsque vous avez besoin de modèles de machine learning ou de flux de travail plus personnalisés qui vont au-delà des fonctionnalités prédéfinies proposées par les principaux services d'IA.
Optimisé pour la création et l'entraînement de modèles de machine learning personnalisés, l'entraînement à grande échelle sur plusieurs instances ou clusters GPU, un meilleur contrôle sur le déploiement des modèles de machine learning, l'inférence en temps réel et pour la création de flux de travail de bout en bout.
Fermer

Apache MxNet

Apache MXNet est un cadre de deep learning open source qui prend en charge plusieurs langages de programmation, notamment Python, Scala et R. Il est connu pour sa capacité de mise à l'échelle et sa rapidité. Il propose une gamme d'API de haut niveau pour créer et entraîner des réseaux neuronaux, ainsi que des API de bas niveau pour les utilisateurs avancés.

Fermer

Hugging Face sur Amazon SageMaker

Hugging Face sur Amazon SageMaker est une bibliothèque open source pour le traitement du langage naturel (NLP) qui fournit un large éventail de modèles et d'outils préentraînés pour travailler avec des données textuelles. Il est connu pour sa facilité d'utilisation et ses performances élevées, et est largement utilisé pour des tâches telles que la classification de textes, l'analyse des sentiments et la traduction linguistique.

Fermer

PyTorch sur AWS

PyTorch sur AWS est un cadre de machine learning open source qui propose des graphes de calcul dynamiques et une différenciation automatique pour créer et entraîner des réseaux neuronaux. PyTorch est connu pour sa facilité d'utilisation et sa flexibilité, et dispose d'une communauté importante et active de développeurs qui contribuent à son développement.

Fermer

TensorFlow sur AWS

TensorFlow est un cadre de machine learning open source développé par Google qui est largement utilisé pour créer et entraîner des réseaux neuronaux. Il est connu pour sa capacité de mise à l'échelle, sa rapidité et sa flexibilité, et prend en charge une gamme de langages de programmation, notamment Python, C++ et Java. TensorFlow propose une large gamme de modèles et d'outils prédéfinis pour le traitement d'images et de textes, ainsi que des API de bas niveau pour les utilisateurs avancés qui souhaitent mieux contrôler leurs modèles.

Utilisez les cadres et l'infrastructure de machine learning fournis par AWS lorsque vous avez besoin d'encore plus de flexibilité et de contrôle sur vos flux de travail de machine learning et que vous souhaitez gérer vous-même l'infrastructure et les ressources sous-jacentes.
Optimisé pour fournir des configurations matérielles personnalisées spécifiques, un accès à des cadres de deep learning non proposés par SageMaker, un meilleur contrôle sur le stockage et le traitement de vos données, ainsi que des algorithmes et des modèles personnalisés.
Fermer

AWS Inferentia et AWS Inferentia2

L'accélérateur AWS Inferentia de première génération alimente les instances Inf1 Amazon Elastic Compute Cloud (Amazon EC2), lesquelles offrent un débit jusqu'à 2,3 fois plus élevé et un coût par inférence jusqu'à 70 % plus bas par rapport à celui des instances Amazon EC2 comparables. L'accélérateur AWS Inferentia2 améliore AWS Inferentia de première génération. Inferentia2 offre un débit jusqu'à 4 fois plus élevé et une latence jusqu'à 10 fois plus basse par rapport à Inferentia.

Fermer

AWS Trainium

AWS Trainium est l'accélérateur de machine learning (ML) de deuxième génération qu'AWS a spécialement conçu pour l'entraînement deep learning de modèles comportant plus de 100 milliards de paramètres. Chaque instance Amazon Elastic Compute Cloud (EC2) Trn1 déploie jusqu'à 16 accélérateurs AWS Trainium à utiliser dans le cadre de l'entraînement deep learning (DL) dans le cloud.

Utilisez du matériel accéléré lorsque vous souhaitez réduire le coût des modèles d'entraînement et que vous devez exécuter des inférences dans le cloud.
Optimisé pour soutenir le déploiement rentable de modèles de base à grande échelle.

Utilisation

Vous devez maintenant bien comprendre les critères que vous devez appliquer pour choisir un service de ML AWS. Vous pouvez désormais sélectionner le ou les services d'IA/ML AWS qui sont optimisés pour les besoins de votre entreprise.

Pour découvrir comment utiliser et en savoir plus sur le ou les services que vous avez choisis, nous avons proposé trois ensembles de parcours pour explorer le fonctionnement de chaque service. Le premier ensemble de parcours fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition et Amazon Transcribe.

  • Amazon Comprehend
  • Démarrez avec Amazon Comprehend

    Utilisez la console Amazon Comprehend pour créer et exécuter une tâche de détection d'entités asynchrone.

    Démarrez avec le didacticiel »

    Analyser des informations contenues dans le texte avec Amazon Comprehend

    Découvrez comment utiliser Amazon Comprehend pour analyser et obtenir des informations à partir de textes.  

    Démarrez avec le didacticiel »

    Tarification d'Amazon Comprehend


    Découvrez des informations sur les tarifs et des exemples d'Amazon Comprehend.

    Explorez le guide »

  • Amazon Textract
  • Démarrez avec Amazon Textract

    Découvrez comment Amazon Textract peut être utilisé avec du texte mis en forme pour détecter des mots et des lignes de mots proches les uns des autres, ainsi que pour analyser un document à la recherche d'éléments tels que du texte associé, des tableaux, des paires clé-valeur et des éléments de sélection.

    Explorez le guide »

    Extraire du texte et des données structurées avec Amazon Textract

    Découvrez comment utiliser Amazon Textract pour extraire du texte et des données structurées de documents.




    Démarrez avec le didacticiel »

    AWS Power Hour: Machine Learning

    Découvrez Amazon Textract dans cet épisode, passez du temps dans la console de gestion AWS et consultez des exemples de code qui vous aideront à comprendre comment tirer le meilleur parti des API de service.


    Regarder la vidéo »

  • Amazon Translate
  • Démarrez avec Amazon Translate à l'aide de la console

    Le moyen le plus facile de commencer avec Amazon Translate est d'utiliser la console pour traduire un texte. Apprenez à traduire jusqu'à 10 000 caractères à l'aide de la console.

    Explorez le guide »

    Traduire du texte dans le cloud

    Dans le scénario de ce didacticiel, en tant que membre d'une entreprise internationale de fabrication de bagages, vous devez comprendre ce que les clients disent de votre produit dans les critiques dans la langue du marché local, le français.  

    Démarrez avec le didacticiel »

    Tarification d'Amazon Translate


    Découvrez les tarifs d'Amazon Translate, y compris le niveau gratuit, qui propose 2 millions de caractères par mois pendant 12 mois.


    Explorez le guide »

    Accélérer les flux de travail multilingues grâce à une solution de traduction personnalisable

    Découvrez comment créer une solution de traduction unifiée avec des fonctionnalités de personnalisation à l'aide d'Amazon Translate et d'autres services AWS.

    Lire le blog »

  • Amazon Lex
  • Guide du développeur Amazon Lex V2


    Découvrez les informations relatives à la mise en route, au fonctionnement et à la tarification d'Amazon Lex V2.


    Explorez le guide »

    Présentation d'Amazon Lex


    Nous vous présentons le service conversationnel Amazon Lex et vous guidons à travers des exemples qui vous montrent comment créer un bot et le déployer sur différents services de chat.

    Suivez le cours » (connexion requise)

    Explorer l'IA générative dans les expériences conversationnelles

    Explorez l'utilisation de l'IA générative dans les expériences de conversation.


    Lire le blog »

  • Amazon Polly
  • Qu'est-ce qu'Amazon Polly ?



    Découvrez un aperçu complet du service cloud qui convertit le texte en discours réaliste et peut être utilisé pour développer des applications visant à accroître l'engagement et l'accessibilité de vos clients.

    Explorez le guide »

    Mettre en évidence un texte au fur et à mesure qu'il est prononcé en utilisant Amazon Polly


    Nous vous présentons des approches permettant de mettre en évidence le texte lorsqu'il est prononcé afin d'ajouter des fonctionnalités visuelles au son des livres, des sites Web, des blogs et d'autres expériences numériques.

    Lire le blog »

    Créer de l'audio pour du contenu dans plusieurs langues avec le même personnage vocal TTS dans Amazon Polly

    Nous expliquons la synthèse vocale neuronale (NTTS) et expliquons comment un large portefeuille de voix disponibles, offrant une gamme de locuteurs distincts dans les langues prises en charge, peut vous être utile.

    Lire le blog »

  • Amazon Rekognition
  • Qu'est-ce qu'Amazon Rekognition ?



    Découvrez comment utiliser ce service pour ajouter des analyses d'images et de vidéos à vos applications.  

    Explorez le guide »

    Exercices pratiques de Rekognition : analyse automatisée des images et des vidéos

    Découvrez comment fonctionne la reconnaissance faciale avec le streaming vidéo, ainsi que des exemples de code et des points clés à un rythme autoguidé.  

    Démarrez avec le didacticiel »

    Questions fréquentes (FAQ) sur Amazon Rekognition



    Découvrez les bases d'Amazon Rekognition et découvrez comment il peut vous aider à améliorer votre deep learning et à analyser visuellement vos applications.

    Lire les questions fréquentes (FAQ) »

  • Amazon Transcribe
  • Transcribe

    Qu'est-ce qu'Amazon Transcribe ?


    Découvrez le service de reconnaissance vocale automatique AWS qui utilise le ML pour convertir le son en texte. Découvrez comment utiliser ce service en tant que transcription autonome ou ajouter une fonctionnalité de synthèse vocale à n'importe quelle application.

    Explorez le guide »

    Tarification d'Amazon Transcribe


    Nous vous présentons la transcription en tarification à l'usage d'AWS, y compris les options de modèles linguistiques personnalisés et l'offre gratuite d'Amazon Transcribe.


    Explorez le guide »

    Créer une transcription audio avec Amazon Transcribe

    Découvrez comment utiliser Amazon Transcribe pour créer une transcription textuelle de fichiers audio enregistrés à l'aide d'un scénario d'utilisation réel à tester en fonction de vos besoins.

    Démarrez avec le didacticiel »

    Créer une application de diffusion en continu Amazon Transcribe

    Découvrez comment créer une application pour enregistrer, transcrire et traduire du son en direct en temps réel, dont les résultats vous sont directement envoyés par e-mail.

    Explorez le guide »

Le deuxième ensemble de parcours de service d'IA/ML AWS fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec les services de la famille Amazon SageMaker.

  • SageMaker
  • Fonctionnement d'Amazon SageMaker

    Découvrez la présentation du machine learning et du fonctionnement de SageMaker.

    Explorez le guide »

    Démarrez avec Amazon SageMaker

    Découvrez comment rejoindre un domaine Amazon SageMaker pour accéder à Amazon SageMaker Studio et à RStudio sur SageMaker. 

    Explorez le guide »

    Utiliser Apache Spark avec Amazon SageMaker

    Découvrez comment utiliser Apache Spark pour le prétraitement des données et SageMaker pour l'entraînement et l'hébergement de modèles. 

    Explorez le guide »

    Utiliser des conteneurs Docker pour créer des modèles

    Découvrez comment Amazon SageMaker utilise largement les conteneurs Docker pour les tâches de création et d'exécution. Découvrez comment déployer les images Docker prédéfinies pour ses algorithmes intégrés et les cadres de deep learning pris en charge utilisés pour l'entraînement et l'inférence.

    Explorez le guide »
     

    Cadres et langages de machine learning

    Découvrez comment démarrer avec SageMaker à l'aide d'Amazon SageMaker Python SDK.



    Explorez le guide »

  • SageMaker Autopilot
  • Créer une expérience Amazon SageMaker Autopilot pour des données tabulaires

    Découvrez comment créer une expérience Amazon SageMaker Autopilot afin d'explorer, de prétraiter et d'entraîner différents modèles candidats sur un jeu de données tabulaire.

    Explorez le guide »

    Créer automatiquement des modèles de machine learning


    Découvrez comment utiliser Amazon SageMaker Autopilot pour créer, entraîner et ajuster automatiquement un modèle de machine learning (ML), et déployer le modèle pour faire des prédictions.

    Démarrez avec le didacticiel »

    Explorer la modélisation avec Amazon SageMaker Autopilot grâce à ces exemples de blocs-notes

    Découvrez des exemples de blocs-notes pour le marketing direct, la prévision du taux de désabonnement des clients et découvrez comment intégrer votre propre code de traitement des données dans Amazon SageMaker Autopilot.

    Explorez le guide »

  • SageMaker Canvas
  • Démarrez avec Amazon SageMaker Canvas


    Découvrez comment démarrer avec SageMaker Canvas.

    Explorez le guide »

    Générer des prédictions de machine learning sans écrire de code

    Ce didacticiel vous explique comment utiliser Amazon SageMaker Canvas pour créer des modèles de ML et générer des prédictions précises sans écrire une seule ligne de code.

    Démarrez avec le didacticiel »

    Explorer plus en profondeur SageMaker Canvas


    Découvrez en détail SageMaker Canvas et ses capacités de ML visuel et sans code.

    Lire le blog »

    Utiliser Amazon SageMaker Canvas pour créer votre premier modèle de ML

    Découvrez comment utiliser Amazon SageMaker Canvas pour créer un modèle de machine learning permettant d'évaluer la fidélisation des clients, sur la base d'une campagne par e-mail pour de nouveaux produits et services.

    Démarrez avec le laboratoire »

  • SageMaker Data Wrangler
  • Démarrez avec Amazon SageMaker Data Wrangler

    Découvrez comment configurer SageMaker Data Wrangler, puis fournissez une procédure pas à pas à l'aide d'un exemple de jeu de données existant.


    Explorez le guide »

    Préparer les données d'entraînement pour le machine learning avec un code minimal

    Découvrez comment préparer des données pour le machine learning à l'aide d'Amazon SageMaker Data Wrangler.



    Démarrez avec le didacticiel »

    Atelier d'approfondissement de SageMaker Data Wrangler

    Apprenez à appliquer les types d'analyse appropriés à votre jeu de données pour détecter les anomalies et les problèmes, à utiliser les résultats ou informations dérivés pour formuler des actions correctives lors des transformations de votre jeu de données et à tester le bon choix et la bonne séquence de transformations à l'aide des options de modélisation rapide fournies par SageMaker Data Wrangler.

    Démarrez avec l'atelier »

  • SageMaker Ground Truth/Ground Truth Plus
  • Démarrez avec Amazon Ground Truth

    Découvrez comment utiliser la console pour créer une tâche d'étiquetage, affecter une main-d'œuvre publique ou privée et envoyer la tâche d'étiquetage à votre personnel. Découvrez comment suivre la progression d'une tâche d'étiquetage.

    Explorez le guide »

    Étiqueter des données d'entraînement pour le machine learning

    Découvrez comment configurer une tâche d'étiquetage dans Amazon SageMaker Ground Truth afin d'annoter les données d'entraînement pour votre modèle de ML.

    Démarrez avec le didacticiel »

    Démarrez avec Amazon Ground Truth Plus

    Découvrez comment effectuer les étapes nécessaires pour démarrer un projet Amazon SageMaker Ground Truth Plus, vérifier les étiquettes et satisfaire aux exigences de SageMaker Ground Truth Plus.  

    Explorez le guide »

    Démarrez avec Amazon Ground Truth

    Découvrez comment commencer à étiqueter vos données en quelques minutes grâce à la console SageMaker Ground Truth.

    Regarder la vidéo »

    Amazon SageMaker Ground Truth Plus : créez des jeux de données d'entraînement sans code ni ressources internes

    Découvrez Ground Truth Plus, un service clé en main qui fait appel à une main-d'œuvre experte pour fournir rapidement des jeux de données d'entraînement de haute qualité et réduire les coûts jusqu'à 40 %.

    Lire le blog »

  • SageMaker JumpStart
  • Démarrez avec le machine learning avec SageMaker JumpStart

    Découvrez les modèles de solution SageMaker JumpStart qui configurent l'infrastructure pour les cas d'utilisation courants, ainsi que des exemples de blocs-notes exécutables pour le machine learning avec SageMaker.

    Explorez le guide »

    Démarrez rapidement avec votre projet de machine learning à l'aide d'Amazon SageMaker JumpStart

    Dans ce didacticiel, vous apprendrez comment accélérer votre projet de ML à l'aide de modèles préentraînés et de solutions préconstruites proposés par Amazon SageMaker JumpStart. Vous pouvez ensuite déployer le modèle sélectionné par le biais des blocs-notes Amazon SageMaker Studio.

    Démarrez avec le didacticiel »

    Découvrez Amazon SageMaker JumpStart grâce à cet atelier d'une journée d'immersion

    Découvrez comment les fonctionnalités de ML à faible code d'Amazon SageMaker Data Wrangler, Autopilot et Jumpstart permettent d'expérimenter plus rapidement et de mettre en production des modèles extrêmement précis.

    Démarrez avec l'atelier »

  • SageMaker Pipelines
  • Mise en route avec Amazon SageMaker Pipelines


    Découvrez comment créer des flux de travail de bout en bout qui gèrent et déploient les tâches SageMaker. SageMaker Pipelines intègre le kit SDK Python de SageMaker, ce qui vous permet de créer chaque étape de votre pipeline à l'aide d'une interface basée sur Python.

    Explorez le guide »

    Automatiser les flux de travail de machine learning


    Découvrez comment créer et automatiser des flux de travail de machine learning (ML) de bout en bout à l'aide d'Amazon SageMaker Pipelines, du Registre des modèles Amazon SageMaker et d'Amazon SageMaker Clarify.

    Démarrez avec le didacticiel »

    Comment créer des flux ML entièrement automatisés avec Amazon SageMaker Pipelines

    Découvrez Amazon SageMaker Pipelines, le premier service ML CI/CD au monde conçu pour être accessible à tous les développeurs et scientifique des données. SageMaker Pipelines intègre les pipelines CI/CD au ML, réduisant ainsi le temps de codage requis.

    Regarder la vidéo »

  • SageMaker Studio
  • Créer et entraîner un modèle de machine learning au niveau local

    Découvrez comment créer et entraîner un modèle de ML localement dans votre bloc-notes Amazon SageMaker Studio.

    Démarrez avec le didacticiel »

    Atelier sur l'intégration de SageMaker Studio avec EMR

    Découvrez comment utiliser le traitement distribué à grande échelle pour préparer les données et entraîner ensuite des modèles de machine learning.  

    Démarrez avec l'atelier »

Le troisième ensemble de parcours de service d'IA/ML AWS fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia et Amazon Titan.

  • Amazon Bedrock
  • Présentation d'Amazon Bedrock

    Amazon Bedrock est un service entièrement géré qui permet d'accéder aux modèles de fondation d'Amazon et des meilleures start-ups d'IA via une API, afin que vous puissiez choisir parmi une grande variété de modèles de fondation celui qui convient le mieux à votre cas d'utilisation.  

    Explorez le guide »

    Annonce de nouveaux outils de création à l'aide de l'IA générative sur AWS

    Découvrez le contexte du développement d'Amazon Bedrock, comment celui-ci s'inscrit dans l'approche globale d'AWS en matière d'IA et de machine learning, et obtenez un aperçu des utilisations potentielles des services d'IA générative d'AWS.

    Lire le blog »

    Démystifier l'IA générative

    Dans cette vidéo, le Dr. Werner Vogels, directeur technique d'Amazon, et Swami Sivasubramanian, vice-président des bases de données, de l'analyse et du machine learning d'AWS, discutent du vaste paysage de l'IA générative, des raisons pour lesquelles elle n'est pas en vogue et de la manière dont AWS démocratise l'accès à de grands modèles linguistiques et fondamentaux.

    Regarder la vidéo »

  • Amazon CodeWhisperer
  • Qu'est-ce qu'Amazon CodeWhisperer ?

    Découvrez comment CodeWhisperer est conçu pour vous aider à créer du code pour des tâches indifférenciées routinières ou chronophages, à travailler avec des API ou des kits SDK inconnus, à utiliser correctement et efficacement les API AWS et d'autres scénarios de codage courants tels que la lecture et l'écriture de fichiers, le traitement d'images et l'écriture de tests unitaires.

    Explorez le guide »

    Démarrez avec Amazon CodeWhisperer

    Découvrez comment configurer CodeWhisperer pour une utilisation avec chacun des quatre IDE possibles : AWS Toolkit pour JetBrains, AWS Toolkit pour Visual Studio Code, Lambda et AWS Cloud9.

    Explorez le guide »

    Atelier Amazon CodeWhisperer

    Découvrez comment créer une application complète, pilotée par des événements et sans serveur pour la reconnaissance d'images. À l'aide d'Amazon CodeWhisperer, vous allez écrire votre propre code qui s'exécute sur AWS Lambda pour interagir avec Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 et des API HTTP tierces afin d'effectuer la reconnaissance d'images.

    Démarrez avec l'atelier »

  • AWS Trainium
  • Mise à l'échelle de l'entraînement distribué avec AWS Trainium et Amazon EKS

    Découvrez comment tirer parti de la disponibilité générale des instances Amazon EC2 Trn1 optimisées par AWS Trainium, un accélérateur de machine learning spécialement conçu pour fournir une plateforme performante, rentable et extrêmement évolutive pour l'entraînement de modèles de deep learning dans le cloud.  

    Lire le blog »

    Présentation d'AWS Trainium

    Découvrez AWS Trainium, l'accélérateur de machine learning (ML) de deuxième génération qu'AWS a spécialement conçu pour l'entraînement deep learning de modèles comportant plus de 100 milliards de paramètres. Chaque instance Trn1 d'Amazon Elastic Compute Cloud (EC2) déploie jusqu'à 16 accélérateurs AWS Trainium afin d'offrir une solution performante et peu coûteuse pour l'entraînement deep learning (DL) dans le cloud.

    Explorez le guide »

    Instances Trainium recommandées

    Découvrez comment les instances AWS Trainium sont conçues pour fournir des performances et une rentabilité élevées pour les charges de travail d'inférence de modèles de deep learning.



    Explorez le guide »

  • AWS Inferentia
  • Présentation d'AWS Inferentia

    Comprenez comment les accélérateurs sont conçus par AWS pour offrir de hautes performances à moindre coût pour vos applications d'inférence de deep learning (DL).  

    Explorez le guide »

    AWS Inferentia2 s'appuie sur AWS Inferentia1 en fournissant un débit 4 fois plus élevé et une latence 10 fois plus faible

    Découvrez ce pour quoi AWS Inferentia2 est optimisé et découvrez comment il a été conçu dès le départ pour améliorer les performances tout en réduisant le coût des LLM et de l'inférence d'IA générative.

    Lire le blog »

    Inférence basée sur le machine learning à l'aide d'AWS Inferentia

    Découvrez comment créer un cluster Amazon EKS avec des nœuds exécutant des instances Amazon EC2 Inf1 et (éventuellement) déployer un exemple d'application. Les instances Amazon EC2 Inf1 sont alimentées par des puces AWS Inferentia, conçues spécifiquement par AWS pour fournir de hautes performances et l'inférence de machine learning la plus économique dans le cloud.

    Explorez le guide »

  • Amazon Titan
  • Présentation d'Amazon Titan

    Découvrez comment les FM Amazon Titan sont préentraînés sur de grands jeux de données, ce qui en fait de puissants modèles polyvalents. Découvrez comment vous pouvez les utiliser tels quels, ou en privé, pour les personnaliser avec vos propres données pour une tâche particulière sans annoter de gros volumes de données.

    Explorez le guide »

Exploration

Diagrammes d'architecture

Ces diagrammes d'architecture de référence présentent des exemples de services d'IA et de ML AWS utilisés.

Explorez les diagrammes d'architectures »

Livres blancs

Explorez les livres blancs pour vous aider à démarrer et découvrez les bonnes pratiques en matière de choix et d'utilisation des services d'IA/ML.

Explorez les livres blancs »

Solutions AWS

Découvrez des solutions approuvées et des conseils architecturaux pour les cas d'utilisation courants des services d'IA et de ML.

Explorer les solutions »

Cette page vous a-t-elle été utile ?