Choisissez les services, cadres et modèles de fondation d'IA et de ML adaptés à votre travail
Introduction
Dans sa forme la plus élémentaire, le machine learning (ML) est conçu pour fournir des outils et des services numériques permettant d'apprendre à partir des données, d'identifier des modèles, de faire des prédictions, puis d'agir en fonction de ces prédictions. Presque tous les systèmes d'intelligence artificielle (IA) actuels sont créés à l'aide du ML. Le ML utilise de grandes quantités de données pour créer et valider une logique de décision. Cette logique de décision constitue la base du « modèle » de l'IA.
Un sous-ensemble du machine learning en pleine expansion est l'IA générative, qui repose sur de grands modèles préentraînés sur un vaste jeu de données, communément appelés modèles de fondation (FM). Les services AWS basés sur l'IA générative incluent :
- Amazon Bedrock (qui vous permet de créer et de mettre à l'échelle des applications basées sur l'IA générative à l'aide des FM)
- Amazon CodeWhisperer (un compagnon de codage basé sur l'IA qui génère des suggestions de code en temps réel en fonction de vos commentaires en langage naturel et de tout code antérieur dans votre environnement de développement intégré)
Ce guide de décision vous aidera à poser les bonnes questions, à évaluer vos critères et votre problème commercial, et à déterminer les services les plus adaptés à vos besoins.
En moins de deux minutes, Dr. Werner Vogels, CTO chez Amazon, explique comment fonctionne l'IA générative et comment vous pouvez l'utiliser. Cette vidéo fait partie d'une discussion plus longue entre le Dr. Vogels et Swami Sivasubramanian, vice-président d'AWS chargé des bases de données, de l'analytique et du machine learning, parlent du vaste paysage de l'IA générative, des raisons pour lesquelles elle n'est pas très médiatisée et de la manière dont AWS démocratise l'accès à de vastes langages et à des modèles de base.
Durée de lecture
25 minutes
Objectif
Aider à déterminer quels services de ML AWS répondent le mieux à vos besoins.
Niveau
Débutant
Date de la dernière mise à jour
26 juillet 2023
Services abordés
Plus de guides de décision sur
Compréhension
En outre, AWS propose le matériel spécialisé et accéléré suivant pour l'entraînement et l'inférence de ML hautes performances.
- Les instances Amazon EC2 P4d sont équipées de GPU NVIDIA A100 Tensor Core, parfaitement adaptés aux tâches d'entraînement et d'inférence dans le cadre du machine learning. AWS Trainium est l'accélérateur de ML de deuxième génération qu'AWS a spécialement conçue pour l'entraînement DL de modèles comportant plus de 100 milliards de paramètres.
- Les instances Inf2 Amazon EC2 basées sur AWS Inferentia2 sont conçues pour offrir de hautes performances à moindre coût dans Amazon EC2 pour vos applications d'inférence de DL et d'IA générative.
Considération
Lors de la résolution d'un problème métier avec les services de ML AWS, la prise en compte de plusieurs critères clés peut contribuer à garantir le succès. La section suivante décrit certains des principaux critères à prendre en compte lors du choix d'un service de ML.
-
Définition du problème
-
Algorithme de ML
-
Sécurité
-
Latence
-
Précision
-
AWS et l'IA responsable
-
La première étape du cycle de vie du ML consiste à définir le problème métier. Il est essentiel de comprendre le problème que vous essayez de résoudre pour choisir le bon service de ML AWS, car différents services sont conçus pour résoudre différents problèmes. Il est également important de déterminer si le ML convient le mieux au problème de votre entreprise.
Une fois que vous avez déterminé que le ML est la solution la plus adaptée, vous pouvez commencer par choisir parmi une gamme de services d'IA AWS spécialement conçus (dans des domaines tels que la parole, la vision et les documents).
Amazon SageMaker fournit une infrastructure entièrement gérée si vous avez besoin de créer et d'entraîner vos propres modèles. AWS propose une gamme de cadres de ML avancés et de choix d'infrastructures pour les cas où vous avez besoin de modèles de ML hautement personnalisés et spécialisés. AWS propose également un large éventail de modèles de base populaires pour créer de nouvelles applications avec l'IA générative.
-
Le choix de l'algorithme de ML pour le problème métier que vous essayez de résoudre dépend du type de données avec lequel vous travaillez, ainsi que des résultats souhaités. Les informations suivantes expliquent comment chacune des principales catégories de services d'IA/ML AWS vous permet de travailler avec ses algorithmes :
- Services d'IA spécialisés : ces services offrent une capacité limitée à personnaliser l'algorithme de ML, car il s'agit de modèles préentraînés optimisés pour des tâches spécifiques. Vous pouvez généralement personnaliser les données d'entrée et certains paramètres, mais vous n'avez pas accès aux modèles de ML sous-jacents ni la possibilité de créer vos propres modèles.
- Amazon SageMaker : ce service offre le maximum de flexibilité et de contrôle sur l'algorithme de ML. Vous pouvez utiliser SageMaker pour créer des modèles personnalisés à l'aide de vos propres algorithmes et cadres, ou utiliser des modèles et algorithmes prédéfinis fournis par AWS. Cela permet un degré élevé de personnalisation et de contrôle du processus de ML.
- Cadres et infrastructure de ML de niveau inférieur : ces services offrent la plus grande flexibilité et le meilleur contrôle sur l'algorithme de ML. Vous pouvez utiliser ces services pour créer des modèles de ML hautement personnalisés à l'aide de leurs propres algorithmes et cadres. Cependant, l'utilisation de ces services nécessite une expertise significative en matière de ML et peut ne pas être réalisable dans tous les cas d'utilisation.
-
Si vous avez besoin d'un point de terminaison privé dans votre VPC, vos options varient en fonction de la couche de services de ML AWS que vous utilisez. Il s'agit notamment de :
- Services d'IA spécialisés : la plupart des services d'IA spécialisés ne prennent actuellement pas en charge les points de terminaison privés dans les VPC. Toutefois, les étiquettes personnalisées Amazon Rekognition et Amazon Comprehend Custom sont accessibles à l'aide des points de terminaison d'un VPC.
- Services d'IA de base : Amazon Translate, Amazon Transcribe et Amazon Comprehend prennent tous en charge les points de terminaison d'un VPC.
- Amazon SageMaker : SageMaker fournit un support intégré pour les points de terminaison d'un VPC, vous permettant de déployer leurs modèles entraînés en tant que point de terminaison accessible uniquement depuis leur VPC.
- Cadres et infrastructure de ML de niveau inférieur : vous pouvez déployer vos modèles sur des instances Amazon EC2 ou dans des conteneurs au sein de votre VPC, afin de contrôler totalement la configuration réseau.
-
Les services d'IA de haut niveau, tels qu'Amazon Rekognition et Amazon Transcribe, sont conçus pour gérer une grande variété de cas d'utilisation et offrir des performances élevées en termes de rapidité. Cependant, il est possible qu'ils ne répondent pas à certaines exigences de latence.
Si vous utilisez des cadres et une infrastructure de ML de niveau inférieur, nous vous recommandons de tirer parti d'Amazon SageMaker. Cette option est généralement plus rapide que la création de modèles personnalisés en raison de son service entièrement géré et de ses options de déploiement optimisées. Bien qu'un modèle personnalisé hautement optimisé puisse surpasser SageMaker, sa création nécessitera une expertise et des ressources importantes.
-
La précision des services de ML AWS varie en fonction du cas d'utilisation spécifique et du niveau de personnalisation requis. Les services d'IA de haut niveau, tels qu'Amazon Rekognition, sont basés sur des modèles préentraînés qui ont été optimisés pour des tâches spécifiques et offrent une grande précision dans de nombreux cas d'utilisation.
Dans certains cas, vous pouvez choisir d'utiliser Amazon SageMaker, qui fournit une plateforme plus flexible et personnalisable pour créer et entraîner des modèles de ML personnalisés. En créant vos propres modèles, vous pourrez peut-être obtenir une précision encore plus élevée que ce qui est possible avec des modèles préentraînés.
Vous pouvez également choisir d'utiliser des cadres et des infrastructures de ML, tels que TensorFlow et Apache MXNet, pour créer des modèles hautement personnalisés offrant la plus grande précision possible pour votre cas d'utilisation spécifique.
-
AWS élabore des modèles de fondation (FM) en gardant à l'esprit l'IA responsable à chaque étape de son processus de développement. Tout au long de la conception, du développement, du déploiement et des opérations, nous prenons en compte un certain nombre de facteurs, notamment :
- Exactitude (dans quelle mesure un résumé correspond au document sous-jacent ; si une biographie est exacte sur le plan factuel)
- Équité (si les résultats traitent les groupes démographiques de la même manière)
- Considérations relatives à la propriété intellectuelle et aux droits d'auteur
- Utilisation appropriée (filtrage des demandes de conseils juridiques, de diagnostics médicaux ou d'activités illégales des utilisateurs)
- Toxicité (discours de haine, blasphèmes et insultes)
- Confidentialité (protection des informations personnelles et des demandes des clients)
AWS développe des solutions pour résoudre ces problèmes dans les processus utilisés pour acquérir les données d'entraînement, dans les FM eux-mêmes et dans la technologie utilisée pour prétraiter les demandes des utilisateurs et les résultats de post-traitement.
Choix
Maintenant que vous connaissez les critères selon lesquels vous évaluerez vos options de service de ML, vous êtes prêt à choisir le service de ML AWS qui convient à vos besoins organisationnels.
Le tableau suivant indique les services de ML optimisés à chaque circonstance. Utilisez-le pour déterminer le service de ML AWS le plus adapté à votre cas d'utilisation.
Utilisation
Vous devez maintenant bien comprendre les critères que vous devez appliquer pour choisir un service de ML AWS. Vous pouvez désormais sélectionner le ou les services d'IA/ML AWS qui sont optimisés pour les besoins de votre entreprise.
Pour découvrir comment utiliser et en savoir plus sur le ou les services que vous avez choisis, nous avons proposé trois ensembles de parcours pour explorer le fonctionnement de chaque service. Le premier ensemble de parcours fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition et Amazon Transcribe.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Démarrez avec Amazon Comprehend
Utilisez la console Amazon Comprehend pour créer et exécuter une tâche de détection d'entités asynchrone.
Démarrez avec le didacticiel »Analyser des informations contenues dans le texte avec Amazon Comprehend
Découvrez comment utiliser Amazon Comprehend pour analyser et obtenir des informations à partir de textes.
Tarification d'Amazon Comprehend
Découvrez des informations sur les tarifs et des exemples d'Amazon Comprehend. -
Amazon Textract
-
Démarrez avec Amazon Textract
Découvrez comment Amazon Textract peut être utilisé avec du texte mis en forme pour détecter des mots et des lignes de mots proches les uns des autres, ainsi que pour analyser un document à la recherche d'éléments tels que du texte associé, des tableaux, des paires clé-valeur et des éléments de sélection.
Extraire du texte et des données structurées avec Amazon Textract
Découvrez comment utiliser Amazon Textract pour extraire du texte et des données structurées de documents.
AWS Power Hour: Machine Learning
Découvrez Amazon Textract dans cet épisode, passez du temps dans la console de gestion AWS et consultez des exemples de code qui vous aideront à comprendre comment tirer le meilleur parti des API de service.
-
Amazon Translate
-
Démarrez avec Amazon Translate à l'aide de la console
Le moyen le plus facile de commencer avec Amazon Translate est d'utiliser la console pour traduire un texte. Apprenez à traduire jusqu'à 10 000 caractères à l'aide de la console.
Traduire du texte dans le cloud
Dans le scénario de ce didacticiel, en tant que membre d'une entreprise internationale de fabrication de bagages, vous devez comprendre ce que les clients disent de votre produit dans les critiques dans la langue du marché local, le français.
Tarification d'Amazon Translate
Découvrez les tarifs d'Amazon Translate, y compris le niveau gratuit, qui propose 2 millions de caractères par mois pendant 12 mois.
Explorez le guide »
Accélérer les flux de travail multilingues grâce à une solution de traduction personnalisable
Découvrez comment créer une solution de traduction unifiée avec des fonctionnalités de personnalisation à l'aide d'Amazon Translate et d'autres services AWS.
-
Amazon Lex
-
Guide du développeur Amazon Lex V2
Découvrez les informations relatives à la mise en route, au fonctionnement et à la tarification d'Amazon Lex V2.
Explorez le guide »Présentation d'Amazon Lex
Nous vous présentons le service conversationnel Amazon Lex et vous guidons à travers des exemples qui vous montrent comment créer un bot et le déployer sur différents services de chat.Suivez le cours » (connexion requise)
Explorer l'IA générative dans les expériences conversationnelles
Explorez l'utilisation de l'IA générative dans les expériences de conversation.
-
Amazon Polly
-
Qu'est-ce qu'Amazon Polly ?
Découvrez un aperçu complet du service cloud qui convertit le texte en discours réaliste et peut être utilisé pour développer des applications visant à accroître l'engagement et l'accessibilité de vos clients.Mettre en évidence un texte au fur et à mesure qu'il est prononcé en utilisant Amazon Polly
Nous vous présentons des approches permettant de mettre en évidence le texte lorsqu'il est prononcé afin d'ajouter des fonctionnalités visuelles au son des livres, des sites Web, des blogs et d'autres expériences numériques.Créer de l'audio pour du contenu dans plusieurs langues avec le même personnage vocal TTS dans Amazon Polly
Nous expliquons la synthèse vocale neuronale (NTTS) et expliquons comment un large portefeuille de voix disponibles, offrant une gamme de locuteurs distincts dans les langues prises en charge, peut vous être utile.
-
Amazon Rekognition
-
Qu'est-ce qu'Amazon Rekognition ?
Découvrez comment utiliser ce service pour ajouter des analyses d'images et de vidéos à vos applications.Exercices pratiques de Rekognition : analyse automatisée des images et des vidéos
Découvrez comment fonctionne la reconnaissance faciale avec le streaming vidéo, ainsi que des exemples de code et des points clés à un rythme autoguidé.
Questions fréquentes (FAQ) sur Amazon Rekognition
Découvrez les bases d'Amazon Rekognition et découvrez comment il peut vous aider à améliorer votre deep learning et à analyser visuellement vos applications. -
Amazon Transcribe
-
Qu'est-ce qu'Amazon Transcribe ?
Découvrez le service de reconnaissance vocale automatique AWS qui utilise le ML pour convertir le son en texte. Découvrez comment utiliser ce service en tant que transcription autonome ou ajouter une fonctionnalité de synthèse vocale à n'importe quelle application.Tarification d'Amazon Transcribe
Nous vous présentons la transcription en tarification à l'usage d'AWS, y compris les options de modèles linguistiques personnalisés et l'offre gratuite d'Amazon Transcribe.Créer une transcription audio avec Amazon Transcribe
Découvrez comment utiliser Amazon Transcribe pour créer une transcription textuelle de fichiers audio enregistrés à l'aide d'un scénario d'utilisation réel à tester en fonction de vos besoins.
Créer une application de diffusion en continu Amazon Transcribe
Découvrez comment créer une application pour enregistrer, transcrire et traduire du son en direct en temps réel, dont les résultats vous sont directement envoyés par e-mail.
Le deuxième ensemble de parcours de service d'IA/ML AWS fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec les services de la famille Amazon SageMaker.
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
Fonctionnement d'Amazon SageMaker
Découvrez la présentation du machine learning et du fonctionnement de SageMaker.Démarrez avec Amazon SageMaker
Découvrez comment rejoindre un domaine Amazon SageMaker pour accéder à Amazon SageMaker Studio et à RStudio sur SageMaker.
Explorez le guide »Utiliser Apache Spark avec Amazon SageMaker
Découvrez comment utiliser Apache Spark pour le prétraitement des données et SageMaker pour l'entraînement et l'hébergement de modèles.
Explorez le guide »Utiliser des conteneurs Docker pour créer des modèles
Découvrez comment Amazon SageMaker utilise largement les conteneurs Docker pour les tâches de création et d'exécution. Découvrez comment déployer les images Docker prédéfinies pour ses algorithmes intégrés et les cadres de deep learning pris en charge utilisés pour l'entraînement et l'inférence.
Explorez le guide »
Cadres et langages de machine learning
Découvrez comment démarrer avec SageMaker à l'aide d'Amazon SageMaker Python SDK. -
SageMaker Autopilot
-
Créer une expérience Amazon SageMaker Autopilot pour des données tabulaires
Découvrez comment créer une expérience Amazon SageMaker Autopilot afin d'explorer, de prétraiter et d'entraîner différents modèles candidats sur un jeu de données tabulaire.Créer automatiquement des modèles de machine learning
Découvrez comment utiliser Amazon SageMaker Autopilot pour créer, entraîner et ajuster automatiquement un modèle de machine learning (ML), et déployer le modèle pour faire des prédictions.
Explorer la modélisation avec Amazon SageMaker Autopilot grâce à ces exemples de blocs-notes
Découvrez des exemples de blocs-notes pour le marketing direct, la prévision du taux de désabonnement des clients et découvrez comment intégrer votre propre code de traitement des données dans Amazon SageMaker Autopilot. -
SageMaker Canvas
-
Démarrez avec Amazon SageMaker Canvas
Découvrez comment démarrer avec SageMaker Canvas.Générer des prédictions de machine learning sans écrire de code
Ce didacticiel vous explique comment utiliser Amazon SageMaker Canvas pour créer des modèles de ML et générer des prédictions précises sans écrire une seule ligne de code.
Démarrez avec le didacticiel »Explorer plus en profondeur SageMaker Canvas
Découvrez en détail SageMaker Canvas et ses capacités de ML visuel et sans code.Utiliser Amazon SageMaker Canvas pour créer votre premier modèle de ML
Découvrez comment utiliser Amazon SageMaker Canvas pour créer un modèle de machine learning permettant d'évaluer la fidélisation des clients, sur la base d'une campagne par e-mail pour de nouveaux produits et services. -
SageMaker Data Wrangler
-
Démarrez avec Amazon SageMaker Data Wrangler
Découvrez comment configurer SageMaker Data Wrangler, puis fournissez une procédure pas à pas à l'aide d'un exemple de jeu de données existant.
Explorez le guide »Préparer les données d'entraînement pour le machine learning avec un code minimal
Découvrez comment préparer des données pour le machine learning à l'aide d'Amazon SageMaker Data Wrangler.
Démarrez avec le didacticiel »Atelier d'approfondissement de SageMaker Data Wrangler
Apprenez à appliquer les types d'analyse appropriés à votre jeu de données pour détecter les anomalies et les problèmes, à utiliser les résultats ou informations dérivés pour formuler des actions correctives lors des transformations de votre jeu de données et à tester le bon choix et la bonne séquence de transformations à l'aide des options de modélisation rapide fournies par SageMaker Data Wrangler. -
SageMaker Ground Truth/Ground Truth Plus
-
Démarrez avec Amazon Ground Truth
Découvrez comment utiliser la console pour créer une tâche d'étiquetage, affecter une main-d'œuvre publique ou privée et envoyer la tâche d'étiquetage à votre personnel. Découvrez comment suivre la progression d'une tâche d'étiquetage.
Étiqueter des données d'entraînement pour le machine learning
Découvrez comment configurer une tâche d'étiquetage dans Amazon SageMaker Ground Truth afin d'annoter les données d'entraînement pour votre modèle de ML.
Démarrez avec Amazon Ground Truth Plus
Découvrez comment effectuer les étapes nécessaires pour démarrer un projet Amazon SageMaker Ground Truth Plus, vérifier les étiquettes et satisfaire aux exigences de SageMaker Ground Truth Plus.Démarrez avec Amazon Ground Truth
Découvrez comment commencer à étiqueter vos données en quelques minutes grâce à la console SageMaker Ground Truth.
Amazon SageMaker Ground Truth Plus : créez des jeux de données d'entraînement sans code ni ressources internes
Découvrez Ground Truth Plus, un service clé en main qui fait appel à une main-d'œuvre experte pour fournir rapidement des jeux de données d'entraînement de haute qualité et réduire les coûts jusqu'à 40 %.
-
SageMaker JumpStart
-
Démarrez avec le machine learning avec SageMaker JumpStart
Découvrez les modèles de solution SageMaker JumpStart qui configurent l'infrastructure pour les cas d'utilisation courants, ainsi que des exemples de blocs-notes exécutables pour le machine learning avec SageMaker.
Explorez le guide »Démarrez rapidement avec votre projet de machine learning à l'aide d'Amazon SageMaker JumpStart
Dans ce didacticiel, vous apprendrez comment accélérer votre projet de ML à l'aide de modèles préentraînés et de solutions préconstruites proposés par Amazon SageMaker JumpStart. Vous pouvez ensuite déployer le modèle sélectionné par le biais des blocs-notes Amazon SageMaker Studio.
Découvrez Amazon SageMaker JumpStart grâce à cet atelier d'une journée d'immersion
Découvrez comment les fonctionnalités de ML à faible code d'Amazon SageMaker Data Wrangler, Autopilot et Jumpstart permettent d'expérimenter plus rapidement et de mettre en production des modèles extrêmement précis.
-
SageMaker Pipelines
-
Mise en route avec Amazon SageMaker Pipelines
Découvrez comment créer des flux de travail de bout en bout qui gèrent et déploient les tâches SageMaker. SageMaker Pipelines intègre le kit SDK Python de SageMaker, ce qui vous permet de créer chaque étape de votre pipeline à l'aide d'une interface basée sur Python.
Explorez le guide »Automatiser les flux de travail de machine learning
Découvrez comment créer et automatiser des flux de travail de machine learning (ML) de bout en bout à l'aide d'Amazon SageMaker Pipelines, du Registre des modèles Amazon SageMaker et d'Amazon SageMaker Clarify.
Démarrez avec le didacticiel »Comment créer des flux ML entièrement automatisés avec Amazon SageMaker Pipelines
Découvrez Amazon SageMaker Pipelines, le premier service ML CI/CD au monde conçu pour être accessible à tous les développeurs et scientifique des données. SageMaker Pipelines intègre les pipelines CI/CD au ML, réduisant ainsi le temps de codage requis.
Regarder la vidéo » -
SageMaker Studio
-
Créer et entraîner un modèle de machine learning au niveau local
Découvrez comment créer et entraîner un modèle de ML localement dans votre bloc-notes Amazon SageMaker Studio.Atelier sur l'intégration de SageMaker Studio avec EMR
Découvrez comment utiliser le traitement distribué à grande échelle pour préparer les données et entraîner ensuite des modèles de machine learning.
Le troisième ensemble de parcours de service d'IA/ML AWS fournit une documentation approfondie, des didacticiels pratiques et des ressources pour démarrer avec Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia et Amazon Titan.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Présentation d'Amazon Bedrock
Amazon Bedrock est un service entièrement géré qui permet d'accéder aux modèles de fondation d'Amazon et des meilleures start-ups d'IA via une API, afin que vous puissiez choisir parmi une grande variété de modèles de fondation celui qui convient le mieux à votre cas d'utilisation.
Annonce de nouveaux outils de création à l'aide de l'IA générative sur AWS
Découvrez le contexte du développement d'Amazon Bedrock, comment celui-ci s'inscrit dans l'approche globale d'AWS en matière d'IA et de machine learning, et obtenez un aperçu des utilisations potentielles des services d'IA générative d'AWS.
Démystifier l'IA générative
Dans cette vidéo, le Dr. Werner Vogels, directeur technique d'Amazon, et Swami Sivasubramanian, vice-président des bases de données, de l'analyse et du machine learning d'AWS, discutent du vaste paysage de l'IA générative, des raisons pour lesquelles elle n'est pas en vogue et de la manière dont AWS démocratise l'accès à de grands modèles linguistiques et fondamentaux.
-
Amazon CodeWhisperer
-
Qu'est-ce qu'Amazon CodeWhisperer ?
Découvrez comment CodeWhisperer est conçu pour vous aider à créer du code pour des tâches indifférenciées routinières ou chronophages, à travailler avec des API ou des kits SDK inconnus, à utiliser correctement et efficacement les API AWS et d'autres scénarios de codage courants tels que la lecture et l'écriture de fichiers, le traitement d'images et l'écriture de tests unitaires.
Démarrez avec Amazon CodeWhisperer
Découvrez comment configurer CodeWhisperer pour une utilisation avec chacun des quatre IDE possibles : AWS Toolkit pour JetBrains, AWS Toolkit pour Visual Studio Code, Lambda et AWS Cloud9.
Atelier Amazon CodeWhisperer
Découvrez comment créer une application complète, pilotée par des événements et sans serveur pour la reconnaissance d'images. À l'aide d'Amazon CodeWhisperer, vous allez écrire votre propre code qui s'exécute sur AWS Lambda pour interagir avec Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 et des API HTTP tierces afin d'effectuer la reconnaissance d'images.
-
AWS Trainium
-
Mise à l'échelle de l'entraînement distribué avec AWS Trainium et Amazon EKS
Découvrez comment tirer parti de la disponibilité générale des instances Amazon EC2 Trn1 optimisées par AWS Trainium, un accélérateur de machine learning spécialement conçu pour fournir une plateforme performante, rentable et extrêmement évolutive pour l'entraînement de modèles de deep learning dans le cloud.
Présentation d'AWS Trainium
Découvrez AWS Trainium, l'accélérateur de machine learning (ML) de deuxième génération qu'AWS a spécialement conçu pour l'entraînement deep learning de modèles comportant plus de 100 milliards de paramètres. Chaque instance Trn1 d'Amazon Elastic Compute Cloud (EC2) déploie jusqu'à 16 accélérateurs AWS Trainium afin d'offrir une solution performante et peu coûteuse pour l'entraînement deep learning (DL) dans le cloud.
Instances Trainium recommandées
Découvrez comment les instances AWS Trainium sont conçues pour fournir des performances et une rentabilité élevées pour les charges de travail d'inférence de modèles de deep learning.
-
AWS Inferentia
-
Présentation d'AWS Inferentia
Comprenez comment les accélérateurs sont conçus par AWS pour offrir de hautes performances à moindre coût pour vos applications d'inférence de deep learning (DL).
AWS Inferentia2 s'appuie sur AWS Inferentia1 en fournissant un débit 4 fois plus élevé et une latence 10 fois plus faible
Découvrez ce pour quoi AWS Inferentia2 est optimisé et découvrez comment il a été conçu dès le départ pour améliorer les performances tout en réduisant le coût des LLM et de l'inférence d'IA générative.
Inférence basée sur le machine learning à l'aide d'AWS Inferentia
Découvrez comment créer un cluster Amazon EKS avec des nœuds exécutant des instances Amazon EC2 Inf1 et (éventuellement) déployer un exemple d'application. Les instances Amazon EC2 Inf1 sont alimentées par des puces AWS Inferentia, conçues spécifiquement par AWS pour fournir de hautes performances et l'inférence de machine learning la plus économique dans le cloud.
-
Amazon Titan
-
Présentation d'Amazon Titan
Découvrez comment les FM Amazon Titan sont préentraînés sur de grands jeux de données, ce qui en fait de puissants modèles polyvalents. Découvrez comment vous pouvez les utiliser tels quels, ou en privé, pour les personnaliser avec vos propres données pour une tâche particulière sans annoter de gros volumes de données.
Exploration
Ces diagrammes d'architecture de référence présentent des exemples de services d'IA et de ML AWS utilisés.
Explorez les livres blancs pour vous aider à démarrer et découvrez les bonnes pratiques en matière de choix et d'utilisation des services d'IA/ML.
Découvrez des solutions approuvées et des conseils architecturaux pour les cas d'utilisation courants des services d'IA et de ML.