- Machine learning›
- Amazon SageMaker AI›
- Questions fréquentes (FAQ)
Questions fréquentes sur Amazon SageMaker AI
Sujets de la page
Généralités
Ouvrir toutAmazon SageMaker AI est un service entièrement géré qui réunit un large éventail d’outils pour permettre un machine learning (ML) à hautes performances et à faible coût, quel que soit le cas d’utilisation. Avec SageMaker AI, vous pouvez créer, entraîner et déployer des modèles de ML à grande échelle à l’aide d’outils tels que des blocs-notes, des débogueurs, des profileurs, des pipelines, des MLOps, etc., le tout dans un environnement de développement intégré (IDE) unique. SageMaker AI répond aux exigences de gouvernance grâce à un contrôle d’accès simplifié et à la transparence de vos projets de ML. En outre, vous pouvez créer vos propres modèles de fondation (FM), de grands modèles qui ont été entraînés sur des jeux de données volumineux, à l’aide d’outils spécialement conçus pour optimiser, expérimenter, ré-entraîner et déployer des FM. SageMaker AI donne également accès à des centaines de modèles préalablement entraînés, y compris des FM disponibles publiquement, que vous pouvez déployer en quelques étapes rapides.
Pour obtenir la liste des régions dans lesquelles le service SageMaker AI est pris en charge, consultez Services Régionaux AWS. Pour en savoir plus, consultez Régions et points de terminaison du guide de références générales AWS.
Le service SageMaker AI est conçu pour offrir une haute disponibilité. Il n’y a ni fenêtres de maintenance ni durées d’indisponibilité programmées. Les API SageMaker AI s’exécutent dans les centres de données fiables et hautement disponibles d’Amazon. En outre, elles offrent une réplication de piles de services configurée dans trois installations au sein de chaque région afin de garantir une tolérance aux pannes en cas de panne au niveau du serveur ou de la zone de disponibilité.
SageMaker AI stocke votre code dans des volumes de stockage de machine learning qui sont sécurisés par des groupes de sécurité et éventuellement chiffrés au repos.
SageMaker AI garantit que les artefacts de modèles de ML et d’autres artefacts du système sont chiffrés en transit et au repos. Les requêtes sont envoyées à l’API et à la console SageMaker AI par le biais d’une connexion sécurisée (SSL). Vous transmettez des rôles de gestion des identités et des accès AWS à SageMaker AI afin d’accorder des autorisations d’accès aux ressources en votre nom à des fins d’entraînement et de déploiement. Vous pouvez utiliser des compartiments Amazon Simple Storage Service (Amazon S3) chiffrés pour les artefacts et les données de modèles, ainsi que pour transmettre une clé AWS Key Management Service (AWS KMS) à des blocs-notes, des tâches d’entraînement et des points de terminaison SageMaker AI, afin de chiffrer le volume de stockage de ML attaché. SageMaker AI prend également en charge Amazon Virtual Private Cloud (Amazon VPC) et AWS PrivateLink.
SageMaker AI n’utilise pas et ne partage pas des modèles, des données d’entraînement ou des algorithmes. Nous sommes conscients du fait que, pour nos clients, la confidentialité et la sécurité des données sont primordiales. C'est pourquoi avec AWS, vous restez propriétaire de votre contenu et vous en gardez le contrôle grâce à des outils simples et puissants qui permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, ainsi que de gérer l'accès aux services et ressources AWS pour vos utilisateurs. Nous mettons également en œuvre un système élaboré responsable des contrôles techniques et physiques, visant à éviter tout accès ou toute divulgation non autorisés du contenu des clients. En tant que client, vous restez propriétaire de votre contenu et vous sélectionnez quels services AWS peuvent traiter, stocker et héberger votre contenu. Nous ne consultons pas votre contenu à quelque fin que ce soit sans votre consentement.
Vous payez les ressources de calcul, de stockage et de traitement des données d’apprentissage automatique que vous utilisez pour héberger le bloc-notes, entraîner le modèle, réaliser des prédictions et journaliser les sorties. SageMaker AI vous permet de sélectionner le nombre et le type d’instances utilisées pour le bloc-notes hébergé, l’entraînement et l’hébergement de modèles. Vous payez uniquement pour ce que vous utilisez et en fonction de votre consommation ; il n’y a pas de frais minimums et aucun engagement initial n’est requis. Pour en savoir plus, consultez Tarification Amazon SageMaker AI et Calculateur de tarification Amazon SageMaker.
Différentes bonnes pratiques vous permettent d’optimiser l’utilisation de vos ressources SageMaker AI. Certaines approches impliquent des optimisations de configurations, d’autres des solutions programmatiques. Vous trouverez un guide complet sur ce concept, avec didacticiels visuels et exemples de code, dans cet article de blog.
SageMaker AI fournit un flux de travail complet de bout en bout, mais vous pouvez continuer à utiliser vos outils existants avec SageMaker AI. Vous pouvez facilement transférer les résultats de chaque étape vers et depuis SageMaker AI en fonction de vos besoins métier.
Oui. Vous pouvez utiliser R dans les instances de blocs-notes SageMaker AI, qui incluent un noyau R pré-installé et la bibliothèque réticulaire. Le réticulaire offre une interface R pour le kit SDK Python Amazon SageMaker AI, ce qui permet aux praticiens du ML de créer, d’entraîner, de régler et de déployer des modèles R. Vous pouvez également lancer RStudio, un environnement de développement intégré (IDE) pour R dans Amazon SageMaker Studio.
Amazon SageMaker Studio fournit une interface visuelle unique, basée sur le Web, qui vous permet de mettre en œuvre toutes les étapes du développement ML. Grâce à SageMaker Studio, vous avez un accès, un contrôle et une visibilité complets sur chaque étape nécessaire à la préparation des données et à la construction, l’entraînement et le déploiement des modèles. Vous pouvez télécharger des données, créer des blocs-notes, entraîner et affiner des modèles, faire des aller-retours entre les étapes pour ajuster les expériences, comparer les résultats et déployer des modèles en production ; le tout rapidement et au même endroit, ce qui accroît votre productivité. Toutes les activités de développement ML peuvent être réalisées à l’intérieur de l’interface visuelle unifiée de SageMaker Studio, notamment les blocs-notes, la gestion d’expériences, la création automatique de modèles, le débogage et le profilage, et la détection de dérive des modèles.
Amazon SageMaker Studio propose à la fois des options d’IDE cloud entièrement gérés et d’IDE local. Accédez à un large éventail d’IDE cloud entièrement gérés, notamment JupyterLab, un éditeur de code basé sur Code-OSS (VS Code Open Source) et RStudio. Vous pouvez également établir une connexion avec les environnements de développement Amazon SageMaker Studio à partir de votre code Visual Studio local pour accéder aux ressources de calcul évolutives de SageMaker AI.
Consultez le guide du développeur de SageMaker Studio pour plus d’informations
L’utilisation de SageMaker Studio ne donne lieu à aucun frais supplémentaire. Vous ne payez que les frais sous-jacents de calcul et de stockage pour les services que vous utilisez dans Amazon SageMaker Studio.
Les régions dans lesquelles SageMaker Studio est pris en charge figurent dans le Guide du développeur Amazon SageMaker.
Amazon SageMaker Clarify contribue à l’amélioration de la transparence du modèle en détectant les biais statistiques dans l’ensemble du flux de ML. SageMaker Clarify recherche les déséquilibres pendant la préparation des données, après l'entraînement et de manière continue, et comprend des outils destinés à faciliter l'explication des modèles ML et leurs prédictions. Les résultats peuvent être partagés via des rapports d’explicabilité.
RStudio sur Amazon SageMaker AI est le premier RStudio Workbench entièrement géré dans le cloud. Vous pouvez lancer rapidement l’environnement de développement intégré (IDE) RStudio et augmenter ou diminuer les ressources informatiques sous-jacentes sans interrompre votre travail, ce qui facilite la création de solutions de machine learning (ML) et d’analyse en R à grande échelle. Vous pouvez passer de l'IDE RStudio aux blocs-notes Amazon SageMaker Studio pour le développement R et Python en toute simplicité. L’ensemble de votre travail, y compris le code, les jeux de données, les référentiels et autres artefacts, est automatiquement synchronisé entre les deux environnements afin de réduire les changements de contexte et de stimuler la productivité.
Amazon SageMaker Clarify est intégré à SageMaker Experiments pour présenter un graphique de l’importance des caractéristiques détaillant l’importance de chaque entrée dans le processus global de prise de décision de votre modèle après son entraînement. Ces informations peuvent aider à déterminer si une entrée spécifique du modèle a plus d'influence qu'elle ne le devrait sur le comportement global du modèle. SageMaker Clarify fournit également des explications concernant chaque prédiction disponible via une API.
SageMaker et SageMaker AI
Ouvrir toutSageMaker AI (anciennement SageMaker) est un service entièrement géré qui réunit un large éventail d’outils pour permettre un ML à hautes performances et à faible coût, quel que soit le cas d’utilisation. Avec SageMaker AI, vous pouvez créer, entraîner et déployer des modèles de ML à grande échelle. La nouvelle génération de SageMaker est une plateforme unifiée pour les données, l’analytique et l’IA. Associant des fonctionnalités de machine learning (ML) et d’analytique largement adoptées par AWS, la nouvelle génération de SageMaker propose une expérience intégrée pour l’analytique et l’IA avec un accès unifié à toutes vos données.
La nouvelle génération de SageMaker inclut les fonctionnalités suivantes :
- SageMaker Unified Studio : créez avec l’ensemble de vos données et à tous vos outils d’analytique et d’IA dans un
environnement unique. - SageMaker Lakehouse : unifiez les données entre les lacs de données Amazon S3, les entrepôts de données Amazon Redshift
et les sources de données tierces et fédérées avec SageMaker Lakehouse. - SageMaker Data and AI Governance : découvrez, gouvernez et collaborez sur les données et l’IA en toute sécurité
avec SageMaker Catalog, basé sur Amazon DataZone. - Développement de modèles : créez, entraînez et déployez des modèles de fondation (FM) et des modèles ML avec
une infrastructure, des outils et des flux de travail entièrement gérés grâce à SageMaker AI (anciennement SageMaker). - Développement d’applications d’IA générative : créez et mettez à l’échelle des applications d’IA générative avec Amazon
Bedrock. - Analytique SQL : obtenez des informations grâce à Amazon Redshift, le moteur SQL le plus économique.
- Traitement des données : analysez, préparez et intégrez vos données pour l’analytique et l’IA à l’aide de cadres
open source sur Athena, Amazon EMR et AWS Glue.
Les fonctionnalités prises en charge incluent la création avec JupyterLab Notebooks ; l’entraînement et le peaufinage avec JumpStart, Amazon Q Developer, Training Jobs, HyperPod ; le déploiement avec des points de terminaison d’inférence ; des MLOps évolutifs avec MLflow, Pipelines, Model Registry ; la gouvernance avec Model Dashboard ; des intégrations tierces avec des applications d’IA partenaires et Snowflake.
SageMaker fournit une expérience unifiée en matière de données et d’IA pour trouver, accéder à et exploiter vos données, accélérant ainsi les initiatives d’analytique et d’IA. SageMaker AI continuera d’être pris en charge, vous n’avez donc aucune mesure à prendre pour vous assurer que vos flux de travail existants continueront de fonctionner. Par exemple, vous pouvez continuer à utiliser vos clusters Amazon SageMaker HyperPod existants tels quels. Si vous souhaitez les utiliser dans SageMaker Unified Studio, établissez une connexion avec ce cluster. Toutes vos configurations HyperPod existantes seront automatiquement migrées vers votre projet dans SageMaker, et les performances et la rentabilité seront les mêmes. Cependant, l’expérience SageMaker Unified Studio peut améliorer la productivité en regroupant tous les outils au même endroit.
Nous sommes ravis d’annoncer la création d’un studio unifié qui vous permet de collaborer et de créer plus rapidement à partir d’un seul environnement de développement de données et d’IA. À partir de SageMaker Unified Studio, vous pouvez découvrir vos données et les exploiter à l’aide d’outils AWS familiers pour le développement de modèles, l’IA générative, le traitement des données et l’analytique SQL. Nous sommes là pour vous aider à chaque étape. Si vous avez des questions, n’hésitez pas à contacter l’équipe chargée de votre compte.
SageMaker Studio reste un excellent choix pour les clients qui ont besoin d’une expérience de développement de machine learning fiable et rationalisée. SageMaker Unified Studio s’adresse aux organisations qui recherchent une expérience intégrée pour les analyses et l’IA avec un accès unifié à toutes leurs données. Avec SageMaker Unified Studio, vous avez accès à des outils AWS familiers pour des flux de développement complets, notamment le développement de modèles et d’applications IA générative, le traitement des données et l’analytique SQL dans un environnement gouverné unique.
Oui, HyperPod, JumpStart, MLflow, JupyterLab et les pipelines sont tous disponibles dans SageMaker Unified Studio.
Parcours 1. Sélectionnez, personnalisez et déployez des modèles de fondation (FM) :
- Parcourez et sélectionnez un jeu de données
- Sélectionnez un FM
- Évaluez les modèles (automatique et manuel)
- Personnalisez, peaufinez : optimisez le prix, les performances et la qualité du FM
- Optimisez et déployez à des fins d’inférence
- Automatisez avec les FMOps et la surveillance des modèles
Parcours 2. Développez, entraînez et déployez des modèles de ML à grande échelle :
- Accélérez et mettez à l’échelle la préparation des données pour le ML
- Créez des modèles de machine learning
- Entraînez et peaufinez des modèles de machine learning
- Déployez en production
- Gérez et surveillez
- Automatisez le cycle de vie ML
Parcours 3. Sélectionnez un modèle, créez et déployez une application d’IA générative :
- Sélectionnez un modèle et peaufinez-le
- Importez le modèle dans Amazon Bedrock
- Créez et déployez une application d’IA générative qui s’intègre à votre point de terminaison
Parcours 4. Sélectionnez et déployez un modèle sur un point de terminaison, puis connectez le point de terminaison à des applications d’IA générative :
- Sélectionnez un modèle
- Déployez le modèle sur un point de terminaison SageMaker AI
- Connectez le point de terminaison à vos applications d’IA générative
Lorsque vous utilisez SageMaker, vous serez facturé conformément au modèle de tarification des différents services AWS accessibles via SageMaker. L’utilisation de SageMaker Unified Studio et de l’environnement de développement de données et d’IA qui fournit l’expérience intégrée de SageMaker est gratuite. Pour plus d’informations, consultez la page des tarifs de SageMaker.
Gouvernance ML
Ouvrir toutSageMaker AI fournit des outils de gouvernance du ML spécialement conçus pour le cycle de vie ML. Avec le gestionnaire de rôles Amazon Sagemaker, les administrateurs peuvent définir les autorisations minimales en quelques minutes. Les cartes de modèles Amazon Sagemaker facilitent la capture, la récupération et le partage des informations essentielles du modèle, de la conception au déploiement, et le tableau de bord des modèles SageMaker vous tient informé du comportement du modèle de production, le tout en un seul endroit. Pour plus d’informations, consultez la section Gouvernance du ML avec Amazon SageMaker AI.
Vous pouvez définir les autorisations minimales en quelques minutes avec SageMaker Role Manager. SageMaker Role Manager fournit un ensemble d'autorisations de base pour les activités et les personas de ML avec un catalogue de politiques IAM préétablies. En fonction de vos besoins spécifiques, vous pouvez conserver les autorisations de base ou les personnaliser davantage. Grâce à quelques invites auto-guidées, vous pouvez saisir rapidement des éléments de gouvernance courants tels que les limites d'accès au réseau et les clés de cryptage. SageMaker Role Manager génère alors automatiquement la politique IAM. Vous pouvez découvrir le rôle généré et les politiques associées via la console AWS IAM. Pour adapter davantage les autorisations à votre cas d'utilisation, attachez vos politiques IAM gérées au rôle IAM que vous créez avec SageMaker Role Manager. Vous pouvez également ajouter des balises pour faciliter l’identification du rôle et l’organisation entre les services AWS.
SageMaker Model Cards vous aide à centraliser et à normaliser la documentation du modèle tout au long du cycle du ML en créant une source unique de vérité pour les informations du modèle. SageMaker Model Cards remplit automatiquement les détails de la formation pour accélérer le processus de documentation. Vous pouvez également ajouter des détails tels que l'objectif du modèle et les objectifs de performance. Vous pouvez joindre les résultats de l'évaluation du modèle à votre fiche de modèle et fournir des visualisations pour obtenir des informations clés sur les performances du modèle. Les cartes modèles SageMaker Model Cards peuvent facilement être partagées avec d’autres personnes en les exportant au format PDF.
SageMaker Model Dashboard vous donne un aperçu complet des modèles et des points de terminaison déployés, vous permettant de suivre les ressources et les violations du comportement du modèle dans un seul volet. Il vous permet de surveiller le comportement du modèle dans quatre dimensions, notamment la qualité des données et du modèle, ainsi que la dérive des biais et de l'attribution des fonctionnalités grâce à son intégration avec Amazon SageMaker Model Monitor et Amazon SageMaker Clarify. SageMaker Model Dashboard offre également une expérience intégrée permettant de configurer et de recevoir des alertes pour les tâches de surveillance de modèle manquantes et inactives, et les déviations du comportement du modèle pour la qualité du modèle, la qualité des données, la dérive du biais et la dérive de l'attribution des caractéristiques. Vous pouvez inspecter plus en détail les modèles individuels et analyser les facteurs qui influent sur les performances des modèles au fil du temps. Ensuite, vous pouvez prendre des mesures correctives en assurant le suivi avec les praticiens du ML.
Modèles de base
Ouvrir toutSageMaker JumpStart vous aide à vous familiariser avec le machine learning de manière facile et rapide. SageMaker JumpStart fournit un ensemble de solutions pour les cas d'utilisation les plus courants qui peuvent être déployés en quelques clics. Les solutions sont entièrement personnalisables et présentent l'utilisation des modèles AWS CloudFormation ainsi que les architectures de référence de sorte que vous puissiez accélérer votre adoption du ML. SageMaker JumpStart fournit également des modèles de fondation et permet le déploiement en un clic et le peaufinage de plus de 150 modèles open source populaires tels que les modèles de transformation, de détection d’objets et de classification d’images.
SageMaker JumpStart fournit des modèles propriétaires et publics. Pour obtenir la liste des modèles de fondation disponibles, consultez la section Démarrer avec Amazon SageMaker JumpStart.
Vous pouvez accéder aux modèles de fondation via SageMaker Studio, le kit SDK SageMaker et la console de gestion AWS. Pour commencer à utiliser des modèles de fondation propriétaires, vous devez accepter les conditions de vente sur AWS Marketplace.
Non. Vos données d’inférence et d’entraînement ne seront ni utilisées ni partagées pour mettre à jour ou entraîner le modèle de base que SageMaker JumpStart propose aux clients.
Non. Les modèles propriétaires ne permettent pas aux clients de consulter les poids des modèles et les scripts.
Les modèles sont mis à disposition dans toutes les régions où SageMaker Studio est disponible, mais la possibilité de déployer un modèle varie selon le type d’instance requis et de la disponibilité du modèle. Vous pouvez consulter la disponibilité de la région AWS et l’instance requise sur la page détaillée du modèle sur AWS Marketplace.
Pour les modèles propriétaires, vous êtes facturé selon la tarification logicielle déterminée par le fournisseur du modèle et les frais d’infrastructure SageMaker AI en fonction de l’instance utilisée. Pour les modèles accessibles au public, les frais d’infrastructure SageMaker AI vous sont facturés en fonction de l’instance utilisée. Pour en savoir plus, consultez la page Tarification Amazon SageMaker AI et AWS Marketplace.
La sécurité est la priorité absolue d’AWS, et SageMaker JumpStart est conçu pour être sécurisé. C’est pourquoi SageMaker AI vous donne la propriété et le contrôle de votre contenu grâce à des outils simples et puissants qui vous permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, et de gérer l’accès aux services et ressources AWS pour vos utilisateurs.
- Nous ne partageons pas les informations relatives à la formation et aux inférences des clients avec les vendeurs de modèles sur AWS Marketplace. De même, les modèles d'artefacts du vendeur (par exemple, le poids du modèle) ne sont pas partagés avec l'acheteur.
- SageMaker JumpStart n'utilise pas de modèles clients, de données de formation ou d'algorithmes pour améliorer son service et ne partage pas les données de formation et d'inférence des clients avec des tiers.
- Dans SageMaker JumpStart, les artefacts du modèle ML sont chiffrés en transit et au repos.
- Dans le cadre du modèle de responsabilité partagée d’AWS, AWS est responsable de la protection de l’infrastructure mondiale qui gère l’ensemble d’AWS. Vous êtes responsable du contrôle du contenu qui est hébergé sur cette infrastructure.
En utilisant un modèle issu d’AWS Marketplace ou de SageMaker JumpStart, les utilisateurs assument la responsabilité de la qualité de sortie du modèle et reconnaissent les fonctionnalités et les limites décrites dans la description de chaque modèle.
SageMaker JumpStart comprend plus de 150 modèles open source pré-entraînés de PyTorch Hub et TensorFlow Hub. Pour les tâches de vision par ordinateur, telles que la classification d’images et la détection d’objets, vous pouvez utiliser des modèles CNN comme ResNet, MobileNet et Single-Shot Detector (SSD). Pour les tâches de texte, comme la classification de phrases et de textes, et la réponse aux questions, vous pouvez utiliser des modèles comme BERT, RoBERTa et DistilBERT.
Avec SageMaker JumpStart, les data scientists et les développeurs ML peuvent facilement partager les artefacts ML, notamment les blocs-notes et les modèles, au sein de leur organisation. Les administrateurs peuvent mettre en place un référentiel accessible par un ensemble défini d'utilisateurs. Tous les utilisateurs autorisés à accéder au référentiel peuvent parcourir, rechercher et utiliser les modèles et les blocs-notes ainsi que le contenu public à l'intérieur de SageMaker JumpStart. Les utilisateurs peuvent sélectionner des artefacts pour former des modèles, déployer des points de terminaison et exécuter des blocs-notes dans SageMaker JumpStart.
Avec SageMaker JumpStart, vous pouvez accélérer la mise sur le marché lors de la création d’applications ML. Vous pouvez facilement partager, en quelques clics, les modèles et les blocs-notes créés par une équipe au sein de votre organisation avec d'autres équipes de votre organisation. Le partage des connaissances en interne et la réutilisation des actifs peuvent augmenter considérablement la productivité de votre organisation.
Oui. Les administrateurs peuvent contrôler quels modèles Amazon SageMaker JumpStart sont visibles et utilisables par leurs utilisateurs sur plusieurs comptes AWS et principaux utilisateurs. Pour en savoir plus, consultez la documentation.
La boîte à outils d’optimisation d’inférence vous permet de mettre en œuvre facilement les dernières techniques d’optimisation d’inférence afin d’atteindre des performances de pointe en matière de coûts (SOTA) sur Amazon SageMaker AI, tout en faisant gagner des mois de travail aux développeurs. Vous pouvez choisir parmi un menu de techniques d’optimisation courantes proposées par SageMaker et exécuter des tâches d’optimisation à l’avance, tester les métriques de performances et de précision du modèle, puis déployer le modèle optimisé sur un point de terminaison SageMaker AI à des fins d’inférence. La boîte à outils gère tous les aspects de l’optimisation du modèle, afin que vous puissiez vous concentrer davantage sur vos objectifs commerciaux.
La boîte à outils d’optimisation d’inférence vous aide à améliorer les coûts, les performances et les délais de commercialisation des applications d’IA générative. La boîte à outils d’optimisation des modèles entièrement gérée vous donne accès aux dernières techniques d’optimisation grâce à des outils faciles à utiliser. Il est également facile de passer à la meilleure solution disponible sur la durée, car la boîte à outils s’adapte en permanence aux innovations de pointe, aux nouveaux matériels et aux fonctionnalités d’hébergement.
La boîte à outils d’optimisation d’inférence prend en charge les techniques d’optimisation telles que le décodage spéculatif, la quantification et la compilation. Vous pouvez choisir les optimisations que vous souhaitez ajouter à votre modèle en quelques clics et Amazon SageMaker AI va gérer toutes les tâches indifférenciées liées à l’achat du matériel, en sélectionnant le conteneur deep-learning et les paramètres de réglage correspondants pour exécuter les tâches d’optimisation, puis en enregistrant les artefacts du modèle optimisé dans l’emplacement S3 que vous avez fourni.
Pour le décodage spéculatif, vous pouvez commencer avec le modèle de brouillon fourni par SageMaker AI, afin de ne pas avoir à créer vos propres modèles de brouillon à partir de zéro ni à demander des optimisations de routage et au niveau du système. Avec la quantification, il vous suffit de choisir le type de précision que vous souhaitez utiliser et de lancer un travail d’analyse comparative pour mesurer les compromis entre performances et précision. Amazon SageMaker générera un rapport d’évaluation complet afin que vous puissiez facilement analyser le compromis entre performances et précision. Avec Compilation, pour les modèles les plus populaires et leurs configurations, Amazon SageMaker AI récupère automatiquement les artefacts des modèles compilés lors de la configuration et de la mise à l’échelle des points de terminaison, ce qui vous évite d’avoir à exécuter des tâches de compilation à l’avance, permettant ainsi de réduire les coûts matériels.
La boîte à outils d’optimisation d’inférence Amazon SageMaker AI vous aide à réduire les coûts et le temps consacrés à l’optimisation des modèles GenAI, vous permettant ainsi de vous concentrer sur vos objectifs métier.
ML à faible code
Ouvrir toutSageMaker Canvas est un service sans programmation pourvu d'une interface visuelle intuitive de type pointer-cliquer qui vous permet de créer des prédictions très précises basées sur le ML à partir de vos données. SageMaker Canvas vous permet d'accéder à des données provenant de diverses sources et de les combiner à l'aide d'une interface utilisateur de type glisser-déposer, en nettoyant et en préparant automatiquement les données afin de minimiser le nettoyage manuel. SageMaker Canvas applique une variété d'algorithmes ML de pointe pour trouver des modèles prédictifs très précis et fournit une interface intuitive pour faire des prédictions. Vous pouvez utiliser SageMaker Canvas pour faire des prédictions encore plus précises dans un éventail d'applications métier, et collaborer aisément avec des scientifiques des données et des analystes au sein de votre entreprise en partageant vos modèles, données et rapports. Pour en savoir plus sur SageMaker Canvas, consultez la FAQ d'Amazon SageMaker Canvas.
SageMaker Autopilot est la première solution automatisée de machine learning du secteur à offrir un contrôle et une visibilité complets sur vos modèles de ML. SageMaker Autopilot inspecte automatiquement les données brutes, applique les processeurs de fonctions, sélectionne la meilleure combinaison d'algorithmes, entraîne et optimise de nombreux modèles, suit leurs performances et classe les modèles selon leurs performances, le tout en quelques clics seulement. Le résultat : le modèle le plus performant qui puisse être déployé, en un temps infiniment plus court que celui normalement requis pour entraîner le modèle. Vous avez une visibilité complète du processus de création du modèle et sur son contenu. Par ailleurs, SageMaker Autopilot s'intègre à Amazon SageMaker Studio. Vous pouvez explorer jusqu'à 50 modèles différents, générés par SageMaker Autopilot dans Amazon SageMaker Studio. Il est donc facile de choisir le modèle qui convient le mieux à votre cas d'utilisation. SageMaker Autopilot peut être utilisé sans expérience ML particulière pour produire un modèle en toute simplicité. Il peut également être utilisé par des développeurs expérimentés pour développer rapidement un modèle qui servira de base de travail à leurs équipes.
Avec SageMaker Canvas, vous payez en fonction de l'utilisation. Grâce à SageMaker Canvas vous pouvez ingérer, explorer et préparer de manière interactive vos données provenant de plusieurs sources, d'entraîner des modèles ML très précis avec vos données et de générer des prédictions. Deux éléments déterminent votre facture : les frais de session, basés sur le nombre d'heures d'utilisation ou de connexion à SageMaker Canvas, et les frais d'entraînement du modèle, basés sur la taille de jeu de données utilisé pour construire le modèle. Pour en savoir plus, consultez la page Tarification Amazon SageMaker Canvas.
Oui. Vous pouvez arrêter une tâche à tout moment. Lorsqu'une tâche SageMaker Autopilot est arrêtée, toutes les évaluations en cours sont interrompues et aucune nouvelle évaluation ne sera démarrée.
Flux de travail ML
Ouvrir toutAmazon SageMaker Pipelines vous aide à créer des flux de ML entièrement automatisés, de la préparation des données au déploiement du modèle, de sorte que vous puissiez mettre à l’échelle jusqu’à des milliers de modèles ML en production. Vous pouvez créer des pipelines avec le kit SDK Python de SageMaker et les visualiser, les exécuter et les auditer à partir de l'interface visuelle de SageMaker Studio. SageMaker Pipelines se charge de la gestion des données entre les étapes, de la création de packages des recettes de code et de l'orchestration de leur exécution, ramenant ainsi des mois de codage à quelques heures. À chaque exécution d'un flux, un registre complet des données traitées et des actions exécutées est conservé afin que les scientifiques des données et les développeurs ML puissent rapidement déboguer les problèmes.
Un SageMaker Pipeline est composé d'« étapes ». Vous pouvez choisir l’un des types d’étapes pris en charge de manière native pour composer un flux de travail invoquant diverses fonctionnalités de SageMaker AI (par exemple, entraînement, évaluation) ou à d’autres services AWS (par exemple EMR, Lambda). Vous pouvez également transférer votre code Python de ML existant dans SageMaker Pipeline en utilisant le décorateur python « @step » ou en ajoutant des blocs-notes Python entiers en tant que composants du pipeline. Pour plus de détails, veuillez consulter le guide du développeur de SageMaker Pipelines.
SageMaker Pipelines est disponible sans frais supplémentaires. Vous ne payez que les frais sous-jacents de calcul ou les frais d’éventuels services AWS que vous utilisez dans SageMaker Pipelines.
Oui. Les composants Amazon SageMaker AI pour Kubeflow Pipelines sont des plug-ins open source qui vous permettent d’utiliser les pipelines Kubeflow en vue de définir vos flux de travail de machine learning et d’utiliser SageMaker AI pour les étapes d’étiquetage des données, d’entraînement et d’inférence. Kubeflow Pipelines est un module complémentaire pour Kubeflow qui vous permet de créer et de déployer des pipelines ML de bout en bout portables et évolutifs. Cependant, lorsqu'elles utilisent Kubeflow Pipelines, les équipes d'opérations ML doivent gérer un cluster Kubernetes avec des instances de CPU et de GPU et maintenir son utilisation élevée en permanence pour réduire les frais d'utilisation. La maximisation de l'utilisation d'un cluster au sein des équipes de science des données est un défi. Cela multiplie davantage la charge pour les équipes d'opérations ML. En tant qu’alternative à un cluster Kubernetes optimisé pour le ML, SageMaker Components pour Kubeflow Pipelines vous permet de tirer parti de puissantes fonctions SageMaker, comme l’étiquetage des données, le réglage d’hyperparamètres à grande échelle entièrement géré et les tâches d’entraînement distribuées, le déploiement en un clic de modèles sécurisés et évolutifs et l’entraînement économique à l’aide d’instances Spot Amazon Elastic Compute Cloud (Amazon EC2), le tout sans devoir configurer et gérer des clusters Kubernetes pour exécuter spécifiquement les tâches ML.
SageMaker Components pour Kubeflow Pipelines est disponible sans frais supplémentaires.
Intervention humaine
Ouvrir toutL'humain dans la boucle est le processus qui consiste à exploiter les données humaines tout au long du cycle de vie du ML afin d'améliorer la précision et la pertinence des modèles. Les humains peuvent effectuer diverses tâches, allant de la génération et de l'annotation de données à la révision et à la personnalisation des modèles. L'intervention humaine est particulièrement importante pour les applications d'IA générative, où les humains sont généralement à la fois le demandeur et le consommateur du contenu. Il est donc essentiel que les humains entraînent les modèles de fondation (FM) à répondre de manière précise, sûre et pertinente aux demandes des utilisateurs. Les commentaires humains peuvent être appliqués pour vous aider à accomplir plusieurs tâches. Tout d'abord, en créant des jeux de données d'entraînement labellisés de haute qualité pour des applications d'IA générative via un apprentissage supervisé (où un humain simule le style, la longueur et la précision de la manière dont un modèle doit répondre aux instructions de l'utilisateur) et un apprentissage de renforcement avec des commentaires humains (où un humain classe et classifie les réponses du modèle). Ensuite, en utilisant des données générées par l’homme pour personnaliser les FM en fonction de tâches spécifiques ou avec des données spécifiques à votre entreprise et à votre domaine et pour rendre les résultats du modèle pertinents pour vous.
Les fonctionnalités de l'humain dans la boucle jouent un rôle important dans la création et l'amélioration des applications d'IA générative à technologie de FM. Une main-d'œuvre humaine hautement qualifiée formée selon les directives relatives aux tâches peut fournir des commentaires, des conseils, des contributions et des évaluations dans le cadre d'activités telles que la génération de données de démonstration pour entraîner les FM, la correction et l'amélioration des exemples de réponse, l'affinement d'un modèle basé sur les données de l'entreprise et de l'industrie, la protection contre la toxicité et les biais, etc. Les fonctionnalités d’intervention humaine peuvent donc améliorer la précision et les performances des modèles.
Amazon SageMaker Ground Truth propose l’ensemble le plus complet de fonctionnalités d’intervention humaine. Il existe deux manières d'utiliser Amazon SageMaker Ground Truth : une offre en libre-service et une offre gérée par AWS. Dans le cadre de l'offre en libre-service, vos annotateurs de données, vos créateurs de contenu et vos ingénieurs de requête (en interne, gérés par le fournisseur ou tirant parti du public) peuvent utiliser notre interface utilisateur à faible code pour accélérer les tâches de l'humain dans la boucle, tout en ayant la flexibilité nécessaire pour créer et gérer vos propres flux de travail personnalisés. Dans le cadre de l'offre gérée par AWS (SageMaker Ground Truth Plus), nous nous chargeons du gros du travail à votre place, notamment en sélectionnant et en gérant la main-d'œuvre adaptée à votre cas d'utilisation. SageMaker Ground Truth Plus conçoit et personnalise un flux de travail de bout en bout (y compris la formation détaillée du personnel et les étapes d’assurance qualité) et fournit une équipe qualifiée dirigée par AWS qui est formée aux tâches spécifiques et répond à vos exigences en matière de qualité, de sécurité et de conformité des données.
Préparation des données
Ouvrir toutSageMaker Data Wrangler réduit le temps nécessaire pour regrouper et préparer des données pour le ML. À partir d’une interface unique dans SageMaker Studio, vous pouvez parcourir et importer des données depuis Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake et Databricks en quelques clics seulement. Vous pouvez également interroger et importer des données qui sont transférées à partir de plus de 50 sources de données et enregistrées dans le catalogue de données AWS Glue par Amazon AppFlow. SageMaker Data Wrangler chargera, agrégera et affichera automatiquement les données brutes. Après avoir importé vos données dans SageMaker Data Wrangler, vous pouvez voir des résumés de colonnes et des histogrammes générés automatiquement. Vous pouvez ensuite creuser davantage pour comprendre vos données et identifier les erreurs potentielles grâce au rapport SageMaker Data Wrangler Data Quality and Insights, qui fournit des statistiques récapitulatives et des avertissements sur la qualité des données. Vous pouvez également exécuter une analyse de biais prise en charge par SageMaker Clarify directement à partir de SageMaker Data Wrangler pour détecter les biais potentiels lors de la préparation des données. À partir de là, vous pouvez utiliser les transformations préétablies de SageMaker Data Wrangler pour préparer vos données. Une fois vos données préparées, vous pouvez créer des flux de ML entièrement automatisés avec Amazon SageMaker Pipelines, ou importer ces données dans Amazon SageMaker Feature Store.
Les ressources de traitement de données, de stockage et de calcul ML que vous utilisez pour SageMaker Data Wrangler vous sont facturées. Des informations détaillées sur la tarification de SageMaker Data Wrangler sont disponibles ici. Dans le cadre de l’offre gratuite AWS, vous pouvez également commencer à utiliser SageMaker Data Wrangler gratuitement.
Vous pouvez configurer et lancer des tâches de traitement SageMaker AI directement à partir de l’interface utilisateur de SageMaker Data Wrangler, notamment en programmant votre tâche de traitement de données et en paramétrant vos sources de données pour transformer facilement de nouveaux lots de données à l’échelle.
Une fois que vous avez préparé vos données, SageMaker Data Wrangler propose différentes options pour promouvoir votre flux SageMaker Data Wrangler en production et s’intègre parfaitement aux fonctionnalités MLOps et CI/CD. Vous pouvez configurer et lancer des tâches de traitement SageMaker AI directement à partir de l’interface utilisateur de SageMaker Data Wrangler, notamment en programmant votre tâche de traitement de données et en paramétrant vos sources de données pour transformer facilement de nouveaux lots de données à l’échelle. Sinon, SageMaker Data Wrangler s’intègre parfaitement au traitement SageMaker AI et au conteneur SageMaker Spark, ce qui vous permet d’utiliser facilement les kits SDK SageMaker pour intégrer SageMaker Data Wrangler dans votre flux de production.
SageMaker Feature Store est une plateforme entièrement gérée et spécialement conçue pour stocker, partager et gérer les caractéristiques des modèles de machine learning (ML). Les caractéristiques peuvent être découvertes et partagées pour être facilement réutilisées entre les modèles et les équipes avec un accès et un contrôle sécurisés, y compris entre les comptes AWS. SageMaker Feature Store prend en charge les caractéristiques en ligne et hors ligne pour l’inférence en temps réel, l’inférence par lots et l’entraînement. Il gère également les pipelines d’ingénierie des caractéristiques par lots et en streaming afin de réduire la duplication lors de la création de caractéristiques et d’améliorer la précision des modèles.
Vous pouvez commencer à utiliser gratuitement SageMaker Feature Store dans le cadre de l’offre gratuite AWS. Avec SageMaker Feature Store, vous payez pour l’écriture dans le magasin de caractéristiques, et la lecture et le stockage dans le magasin de caractéristiques en ligne. Pour consulter les informations de tarification, reportez-vous à la page Tarification Amazon SageMaker.
SageMaker AI propose deux offres en matière d’étiquetage des données : Amazon SageMaker Ground Truth Plus et Amazon SageMaker Ground Truth. Les deux options vous permettent d’identifier des données brutes, telles que des images, des fichiers texte et des vidéos, et d’ajouter des étiquettes informatives pour créer des jeux de données d’entraînement de haute qualité pour vos modèles ML. Pour en savoir plus, consultez la page Étiquetage des données Amazon SageMaker.
Créer des modèles
Ouvrir toutVous pouvez utiliser des blocs-notes Jupyter entièrement gérés dans SageMaker AI pour le développement complet du ML. Mettez à l’échelle les instances de calcul vers le haut et vers le bas grâce à la sélection d’instances optimisées pour le calcul et accélérées par GPU dans le cloud.
Les blocs-notes SageMaker Studio sont des blocs-notes Jupyter en un clic qui peuvent être démarrés rapidement. Les ressources de calcul sous-jacentes sont entièrement élastiques, de sorte que puissiez facilement composer les ressources disponibles ou les diminuer. Par ailleurs, les modifications ont lieu automatiquement en arrière-plan sans interrompre votre travail. SageMaker AI permet également le partage automatique des blocs-notes en un clic. Vous pouvez facilement partager des blocs-notes avec d’autres personnes, et elles recevront exactement le même bloc-notes, enregistré au même endroit.
Avec les blocs-notes SageMaker, vous pouvez vous connecter avec vos informations d'identification d'entreprise en utilisant AWS IAM Identity Center. Le partage de blocs-notes au sein des équipes et entre elles est facile, car les dépendances nécessaires à l’exécution d’un bloc-notes sont automatiquement suivies dans les images de travail qui sont encapsulées avec le bloc-notes lors de son partage.
Les blocs-notes dans les IDE SageMaker Studio offrent quelques fonctionnalités importantes qui les différencient des blocs-notes basés sur des instances. Tout d’abord, vous pouvez lancer rapidement des blocs-notes sans avoir à allouer manuellement une instance et à attendre qu’elle soit opérationnelle. Le temps de démarrage du lancement de l’interface utilisateur pour lire et exécuter un bloc-notes est plus rapide que celui des blocs-notes basés sur des instances. Vous avez également la possibilité de choisir à tout moment parmi un large ensemble de types d'instances dans l'interface utilisateur. Vous n'avez pas besoin d'accéder à la console de gestion AWS pour démarrer de nouvelles instances et transférer vos blocs-notes. Chaque utilisateur a un répertoire de base isolé indépendant d'une instance particulière. Ce répertoire est automatiquement monté dans tous les serveurs de blocs-notes et noyaux lorsqu'ils sont démarrés, afin que vous puissiez accéder à vos blocs-notes et aux autres fichiers, même lorsque vous changez d'instance pour afficher et exécuter vos blocs-notes. Les blocs-notes SageMaker Studio sont intégrés à AWS IAM Identity Center (successeur d’AWS SSO), ce qui facilite l’utilisation de vos informations d’identification d’organisation pour accéder aux blocs-notes. Ils sont également intégrés à des outils de ML spécialement conçus dans SageMaker AI et d’autres services AWS pour le développement complet de votre ML, de la préparation des données à l’échelle du pétaoctet à l’aide de Spark sur Amazon EMR, à l’entraînement et au débogage des modèles, au déploiement et à la surveillance des modèles et à la gestion des pipelines.
Lorsque vous utilisez les blocs-notes SageMaker AI dans les IDE Studio, vous payez à la fois pour le calcul et le stockage. Pour connaître les frais applicables par type d’instance de calcul, consultez la page Tarification d’Amazon SageMaker AI. Vos blocs-notes et les artefacts associés, tels que les scripts et les fichiers de données, sont maintenus sur Amazon Elastic File System (Amazon EFS). Pour connaître les frais de stockage, consultez la page Tarification d’Amazon EFS. Dans le cadre de l’offre gratuite AWS, vous pouvez commencer à utiliser les blocs-notes SageMaker Studio gratuitement.
Non. Vous pouvez créer et exécuter plusieurs blocs-notes sur la même instance de calcul. Vous êtes facturé uniquement pour le calcul que vous utilisez, et non pas pour les éléments individuels. Pour en savoir plus à ce sujet, reportez-vous à notre guide de mesure.
En plus des blocs-notes, vous pouvez également démarrer et exécuter des terminaux et des shells interactifs dans SageMaker Studio, le tout sur la même instance de calcul. Chaque application s'exécute au sein d'un conteneur ou d'une image. SageMaker Studio fournit plusieurs images intégrées, spécialement conçues et préconfigurées pour la science des données et le ML.
Vous pouvez contrôler et arrêter les ressources utilisées par vos blocs-notes SageMaker Studio par le biais de l’interface visuelle de SageMaker Studio et de la console de gestion AWS. Consultez la documentation pour plus de détails.
Non, vous n’êtes pas facturé pour la création ou la configuration d’un domaine SageMaker Studio, y compris l’ajout, la mise à jour et la suppression de profils d’utilisateurs.
En tant qu’administrateur, vous pouvez afficher la liste des frais détaillés pour SageMaker AI, y compris SageMaker Studio, dans la console de facturation AWS. Dans la console de gestion AWS pour SageMaker AI, choisissez Services dans le menu supérieur, saisissez « Facturation » dans la zone de recherche et sélectionnez Facturation dans le menu déroulant, puis Factures dans le volet de gauche. Dans la section Détails, vous pouvez cliquer sur SageMaker pour développer la liste des régions et voir les frais détaillés.
SageMaker Studio Lab s’adresse aux étudiants, chercheurs et scientifiques des données à la recherche d’un environnement de développement de blocs-notes gratuit et ne nécessitant aucune configuration pour leurs cours et expériences de ML. SageMaker Studio Lab est idéal pour les utilisateurs qui n’ont pas besoin d’un environnement de production, mais qui veulent tout de même un sous-ensemble de la fonctionnalité SageMaker AI pour améliorer leurs compétences en ML. Les sessions SageMaker AI sont automatiquement enregistrées, ce qui permet aux utilisateurs de reprendre le travail là où ils l’avaient abandonné.
SageMaker Canvas est un service visuel de type glisser-déposer qui permet aux analystes métier de créer des modèles ML et de générer des prédictions précises sans écrire la moindre ligne de code ni posséder une quelconque expertise ML. SageMaker Canvas permet d'accéder facilement à des données provenant de diverses sources et de les combiner, de nettoyer automatiquement les données et de leur appliquer une variété de réglages. Le service permet également de créer des modèles ML pour générer des prédictions précises en un seul clic. Vous pouvez également publier des résultats en toute simplicité, expliquer et interpréter des modèles, et soumettre ces modèles pour révision à d’autres utilisateurs de votre organisation.
SageMaker Canvas vous permet de découvrir, en toute simplicité les sources de données AWS auxquelles votre compte a accès, notamment Amazon S3 et Amazon Redshift. Vous pouvez parcourir et importer des données à l'aide de l'interface visuelle de type glisser-déposer de SageMaker Canvas. Vous pouvez également faire glisser des fichiers à partir de votre disque local et utiliser des connecteurs prédéfinis pour importer des données depuis des sources tierces, telles que Snowflake.
Une fois que vous avez connecté des sources, sélectionné un jeu de données et préparé vos données, vous pouvez sélectionner la colonne cible pour laquelle vous souhaitez effectuer une prédiction afin de lancer la tâche de création de modèle. SageMaker Canvas identifiera automatiquement le type de problème, générera de nouvelles fonctionnalités pertinentes, testera un ensemble complet de modèles de prédiction à l’aide de techniques ML telles que la régression linéaire, la régression logistique, le deep learning, la prévision de séries chronologiques et le boosting de gradient, et construira le modèle qui effectue des prédictions précises sur la base de votre jeu de données.
Le temps nécessaire à la création d’un modèle dépend de la taille de votre jeu de données : de moins de 30 minutes pour les jeux de données de petite taille à plusieurs heures pour les jeux de données volumineux. À mesure que la tâche de création du modèle progresse, SageMaker Canvas fournit des mises à jour visuelles détaillées, dont le pourcentage d’achèvement de la tâche et la durée restante.
Entraîner des modèles
Ouvrir toutNous recommandons d’utiliser Amazon Bedrock pour peaufiner votre modèle dans la situation suivante :
- Vous êtes un créateur d’applications d’IA générative qui souhaite une approche gérée pilotée par des API, moins d’hyperparamètres et une abstraction de la complexité associée à l’entraînement des modèles.
- Vous exigez une charge d’infrastructure minimale, vous avez peu ou aucun investissements d’infrastructure de machine learning existante à prendre en compte et vous cherchez à déployer rapidement sans serveur.
Nous recommandons d’utiliser Amazon SageMaker AI pour peaufiner votre modèle dans la situation suivante :
- Vous êtes un data scientist, un ingénieur ML ou un développeur de modèles d’IA souhaitant accéder à des techniques de personnalisation avancées comme la distillation des connaissances, le peaufinage supervisé ou l’optimisation directe des préférences, à la fois pour les pondérations complètes et pour un peaufinage efficace des paramètres. SageMaker AI permet également de personnaliser votre recette d’entraînement et l’architecture de votre modèle.
- Vous avez mis en place des flux de travail de machine learning et des investissements dans l’infrastructure visant à mieux contrôler l’infrastructure et les coûts.
- Vous souhaitez bénéficier d’une plus grande flexibilité pour apporter vos propres bibliothèques et frameworks afin d’optimiser les flux d’entraînement pour une précision et des performances accrues.
Avec Amazon SageMaker AI, vous pouvez personnaliser des modèles de fondation propriétaires et publics. Les data scientists et les développeurs de toutes compétences peuvent rapidement personnaliser des modèles d’IA générative à l’aide de recettes optimisées. Chaque recette est testée par AWS, ce qui élimine des semaines de travail fastidieux à tester différentes configurations de modèles pour obtenir des performances de pointe. Vous pouvez personnaliser des familles de modèles publiques populaires, notamment Llama, Mixtral, Mistral et DeepSeek. En outre, vous pouvez personnaliser les modèles de fondation Amazon Nova à l’aide d’une suite de techniques comme le peaufinage supervisé (SFT), la distillation des connaissances, l’optimisation des préférences directes (DPO), l’optimisation des politiques proximales et l’entraînement préalable continu, avec la prise en charge d’options d’entraînement des modèles efficaces en matière de paramètres et complets pour SFT, la distillation et DPO.
Oui. SageMaker AI peut distribuer automatiquement les modèles de deep learning et les grands ensembles d’entraînement entre plusieurs instances GPU AWS en une fraction du temps nécessaire pour créer et optimiser manuellement ces stratégies de distribution. Les techniques d’entraînement distribué appliquées par SageMaker AI sont le parallélisme des données et le parallélisme des modèles. Le parallélisme des données est appliqué pour améliorer les vitesses d’entraînement en répartissant de manière égale les données sur plusieurs instances GPU, permettant ainsi à chaque instance d’entraîner simultanément. Le parallélisme des modèles s’avère utile pour les modèles trop importants pour être stockés sur un seul GPU et exige que le modèle soit partitionné en parties plus petites avant distribution sur plusieurs GPU. Rien qu’avec quelques lignes de code supplémentaires dans vos scripts d’entraînement PyTorch et TensorFlow, SageMaker AI appliquera automatiquement pour vous le parallélisme des données ou des modèles, ce qui vous permet de développer et de déployer vos modèles plus rapidement. SageMaker AI détermine également la meilleure approche pour diviser votre modèle en utilisant des algorithmes de partitionnement de graphiques pour équilibrer le calcul de chaque GPU tout en réduisant la communication entre les instances GPU. En outre, SageMaker AI optimise vos tâches d’entraînement distribuées grâce à des algorithmes qui utilisent intégralement le réseau et le calcul AWS afin d’obtenir une efficacité de mise à l’échelle quasi linéaire. Cela vous permet de terminer l’entraînement plus rapidement qu’avec des implémentations open source manuelles.
SageMaker Training Compiler est un compilateur de deep learning (DL) qui accélère jusqu’à 50 % l’entraînement des modèles DL grâce à des optimisations au niveau du graphe et du noyau, pour une utilisation plus efficace des GPU. SageMaker Training Compiler est intégré à des versions de TensorFlow et PyTorch dans SageMaker, ce qui vous permet d’accélérer l’entraînement dans ces cadres populaires moyennant des changements de code minimes.
SageMaker Training Compiler accélère les tâches d’entraînement en convertissant les modèles DL à partir de leur représentation dans un langage évolué en instructions optimisées pour le matériel qui permettent un entraînement plus rapide que les tâches avec les cadres natifs. Plus précisément, SageMaker Training Compiler effectue des optimisations au niveau du graphe (fusion d’opérateurs, planification de mémoire et simplification algébrique), des optimisations au niveau du flux de données (transformation de la mise en page, élimination des sous-expressions communes) et des optimisations backend (masquage de la latence de la mémoire, optimisations axées sur les boucles) pour produire une tâche d’entraînement des modèles optimisée qui utilise plus efficacement les ressources matérielles et, par conséquent, garantit un entraînement plus rapide.
L’entraînement Spot géré avec SageMaker AI vous permet d’entraîner vos modèles ML à l’aide d’instances Spot Amazon EC2, tout en offrant jusqu’à 90 % de réduction sur les coûts d’entraînement de vos modèles.
SageMaker Training Compiler est intégré dans le kit SDK Python SageMaker et les conteneurs deep learning SageMaker Hugging Face. Aucune modification de vos flux n'est nécessaire pour profiter de ses avantages sur le plan de la vitesse. Vous pouvez exécuter des tâches d'entraînement sans changer votre façon de faire, en utilisant n'importe quelle interface SageMaker : instances de blocs-notes Amazon SageMaker, SageMaker Studio, AWS SDK pour Python (Boto3) et interface de la ligne de commande AWS (AWS CLI). Vous pouvez activer SageMaker Training Compiler en ajoutant une classe TrainingCompilerConfig en tant que paramètre lors de la création d'un objet d'estimation de cadre. Dans la pratique, cela signifie que quelques lignes de code sont ajoutées au script de votre tâche d’entraînement existante pour une seule instance GPU. Pour les dernières informations détaillées, les exemples de blocs-notes et divers exemples, reportez-vous à la documentation.
SageMaker Training Compiler est une fonctionnalité d’entraînement SageMaker proposée gratuitement qui s’adresse uniquement aux clients SageMaker AI. SageMaker Training Compiler permet aux clients de réduire effectivement les coûts, dans la mesure où les temps d’entraînement sont réduits.
Vous activez l’option d’entraînement Spot géré lors de la soumission de vos tâches d’entraînement, et vous spécifiez également le temps que vous souhaitez attendre pour la capacité Spot. SageMaker AI utilisera ensuite les instances Spot Amazon EC2 pour exécuter votre tâche, et gère la capacité Spot. Vous bénéficiez d’une visibilité totale du statut de vos tâches d’entraînement, à la fois en cours d’exécution et en attente de capacité.
Il utilise des instances Spot Amazon EC2 pour l’entraînement, qui peuvent être préemptées lorsque AWS a besoin de plus de capacité. En conséquence, les tâches d’entraînement Spot géré peuvent être exécutées par petits incréments à mesure que la capacité devient disponible. Les tâches d’entraînement ne doivent pas nécessairement être redémarrées à partir de zéro en cas d’interruption, car SageMaker AI peut les reprendre en utilisant le point de contrôle de modèle le plus récent. Les cadres intégrés et les algorithmes de reconnaissance d’images intégrés dont est équipé SageMaker AI permettent d’utiliser des points de contrôle réguliers. Vous pouvez activer des points de contrôle avec des modèles personnalisés.
Nous recommandons d’utiliser des points de contrôle régulier comme bonne pratique générale pour les tâches d’entraînement de longue durée. Cela empêche le redémarrage de vos tâches d’entraînement Spot géré si la capacité est préemptée. Lorsque vous activez les points de contrôle, SageMaker AI reprend vos tâches d’entraînement Spot géré à partir du dernier point de contrôle.
Vous pouvez utiliser l’entraînement Spot géré avec toutes les instances prises en charge dans SageMaker AI.
L’entraînement Spot géré prend en charge toutes les régions où SageMaker AI est actuellement disponible.
Aucune limite ne s’applique à la taille du jeu de données que vous pouvez utiliser pour l’entraînement de modèles avec SageMaker AI.
SageMaker AI comprend des algorithmes intégrés pour la régression linéaire, la régression logistique, le partitionnement en k-moyennes, l’analyse de composants de principaux, les machines de factorisation, l’algorithme Neural Topic Model, l’allocation de Dirichlet latente, les arbres de décision à gradient amplifié, l’algorithme sequence2sequence, les prédictions de séries chronologiques, le groupe word2vec et la classification d’images. SageMaker AI fournit aussi des conteneurs Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-Learn et Deep Graph Library optimisés. De plus, SageMaker AI prend en charge vos algorithmes de formation personnalisés fournis par le biais d’une image Docker conforme aux spécifications documentées.
Vous avez la possibilité d’exécuter le réglage de modèle automatique dans SageMaker AI avant tout autre algorithme à condition que cela soit techniquement faisable, notamment les algorithmes SageMaker AI intégrés, les réseaux neuronaux approfondis ou encore les algorithmes arbitraires que vous importez dans SageMaker AI sous la forme d’images Docker.
Pas à l’heure actuelle. Vous profiterez des meilleures performances et expériences de réglage de modèle dans SageMaker AI.
Actuellement, l’algorithme de réglage des hyperparamètres est une mise en œuvre personnalisée de l’optimisation bayésienne. Il vise à optimiser une métrique d'objectif spécifique au client par l'intermédiaire d'un processus de réglage. Plus particulièrement, il vérifie les métriques d’objectifs de tâches d’entraînement terminées et s’appuie sur des connaissances pour en déduire la combinaison d’hyperparamètres appropriée pour la prochaine tâche d’entraînement.
Non. L’impact des hyperparamètres sur les performances d’un modèle dépend de divers facteurs, et il est difficile d’indiquer catégoriquement qu’un hyperparamètre est plus important que d’autres et qu’il doit par conséquent être ajusté. En ce qui concerne les algorithmes intégrés à SageMaker AI, nous déterminons si un hyperparamètre est ajustable ou non.
La durée d’une tâche de réglage d’hyperparamètres dépend de plusieurs facteurs, dont la taille des données, l’algorithme sous-jacent et les valeurs des hyperparamètres. De plus, les clients peuvent choisir le nombre de tâches d'entraînement simultanées et le nombre total de tâches d'entraînement. Tous ces choix affectent la durée potentielle d’une tâche d’ajustement d’hyperparamètre.
Pas à l’heure actuelle. Pour le moment, vous devez spécifier une seule métrique d’objectif afin d’optimiser ou de modifier votre code d’algorithme et émettre une nouvelle métrique, ce qui correspond à une moyenne pondérée entre deux métriques utiles ou plus. Après cela, vous lancez l’optimisation du processus de réglage pour cette métrique d’objectif.
Une tâche d’ajustement d’hyperparamètre ne coûte rien en soi. Vous serez facturé en fonction des tâches d’entraînement lancées par la tâche de réglage des hyperparamètres, selon la tarification de l’entraînement de modèle.
SageMaker Autopilot automatise tout dans un flux de ML typique (dont le prétraitement des fonctions, la sélection d’algorithmes et le réglage des hyperparamètres) tout en se concentrant spécifiquement sur les cas d’utilisation de classification et de régression. Le réglage de modèle automatique, en revanche, est conçu pour régler n'importe quel modèle, qu'il soit basé sur des algorithmes intégrés, des cadres de deep learning ou des conteneurs personnalisés. En échange de cette flexibilité, vous devez choisir manuellement l’algorithme spécifique, les hyperparamètres à régler et les plages de recherche correspondantes.
L’apprentissage par renforcement est une technique de ML qui permet à un agent d’apprendre à tâtonnement au sein d’un environnement interactif à l’aide de retours générés à la suite de ses propres actions et expériences.
Oui, vous pouvez former des modèles d’apprentissage par renforcement dans SageMaker AI en plus des modèles d’apprentissage supervisé et non supervisé.
L’apprentissage supervisé et l’apprentissage par renforcement utilisent tous deux le mappage entre l’entrée et la sortie. Cependant, l’apprentissage par renforcement privilégie l’usage de retours différés où les signaux de récompense sont optimisés pour assurer un but à long terme par le biais d’une séquence d’actions, au contraire de l’apprentissage supervisé où les retours fournis à l’agent consistent en un ensemble d’actions appropriées pour effectuer une tâche donnée.
L’objectif des méthodes d’apprentissage supervisé est de trouver la bonne réponse selon les schémas des données d’entraînement, tandis que l’objectif des méthodes d’apprentissage non supervisé est de trouver les similitudes et différences entre des points de données. Inversement, le but des techniques d'apprentissage par renforcement (RL) est d'apprendre comment atteindre un résultat espéré, même si la méthode pour y parvenir n'est pas évidente. Par conséquent, l’apprentissage par renforcement est plus adapté aux applications intelligentes où un agent est en mesure de prendre des décisions autonomes, par exemple la robotique, les véhicules autonomes, les systèmes CVC, les commandes industrielles et plus encore.
Amazon SageMaker RL prend en charge divers environnements pour l’entraînement de modèles RL. Vous pouvez utiliser les services AWS, comme AWS RoboMaker, les environnements open source ou les environnements personnalisés développés à l’aide d’interfaces Open AI Gym, ou des environnements de simulation commerciale, comme MATLAB et SimuLink.
Non, SageMaker RL dispose de boîtes à outils RL, comme Coach et Ray RLLib, qui proposent d’implémentations d’algorithmes d’agents RL, comme DQN, PPO, A3C et plus encore.
Oui, vous pouvez apporter vos propres bibliothèques et implémentations d’algorithmes RL dans des conteneurs Docker et les exécuter dans SageMaker RL.
Oui. Vous pouvez même sélectionner un cluster hétérogène où l’entraînement et les simulations peuvent s’exécuter sur une instance GPU et sur plusieurs instances CPU, respectivement.
L’observabilité de SageMaker HyperPod permet aux clients d’accélérer la mise sur le marché et de réduire le coût des innovations en matière d’IA générative. Les administrateurs peuvent utiliser cette fonctionnalité pour obtenir une vue complète des performances, de l’état et de l’utilisation de leurs clusters en quelques minutes, afin d’optimiser l’utilisation et la configuration des ressources de calcul accélérées. Lorsque les data scientists rencontrent des interruptions dans leurs tâches de développement d’IA générative, comme l’entraînement des modèles, le peaufinage ou l’inférence sur un cluster HyperPod, ils peuvent identifier en quelques minutes la configuration ou la ressource qui doit être mise à jour pour récupérer les tâches. La réduction des délais de résolution des interruptions de tâches et du nombre de nouvelles tentatives de tâches permet aux entreprises de se concentrer sur l’accélération de leur innovation en matière d’IA générative et sur les délais de commercialisation, au lieu de passer des heures ou des jours à collecter et à analyser les données de télémétrie des clusters.
Déployer des modèles
Ouvrir toutAprès avoir créé et entraîné des modèles, SageMaker AI propose trois options de déploiement afin que vous puissiez commencer à faire des prédictions. L’inférence en temps réel convient aux charges de travail exigeant une latence de l’ordre de la milliseconde, des charges utiles allant jusqu’à 6 Mo et des temps de traitement allant jusqu’à 60 secondes. La transformation par lots est idéale pour les prédictions hors ligne sur de grands lots de données qui sont disponibles à l'avance. L’inférence asynchrone est conçue pour les charges de travail qui n’ont pas besoin d’une latence inférieure à une seconde, d’une taille de charge utile allant jusqu’à 1 Go et d’un temps de traitement allant jusqu’à 15 minutes.
Vous pouvez réduire verticalement à zéro le nombre d’instances du point de terminaison d’inférence asynchrone SageMaker afin d’économiser sur les coûts lorsque vous ne traitez pas activement des requêtes. Vous devez définir une politique de mise à l’échelle en fonction de la métrique personnalisée « ApproximateBacklogPerInstance » et régler la valeur « MinCapacity » sur zéro. Pour des instructions étape par étape, référez-vous à la section Mise à l’échelle automatique d’un point de terminaison asynchrone du guide du développeur.
L’inférence sans serveur SageMaker est une option de diffusion de modèles sans serveur sur mesure qui facilite le déploiement et la mise à l’échelle de modèles de machine learning. Les points de terminaison SageMaker Serverless Inference démarrent automatiquement les ressources de calcul et les mettent à l'échelle (scale-in ou scale-out) en fonction du trafic, rendant ainsi inutile la sélection du type d'instance, l'exécution de la capacité allouée ou la gestion de la mise à l'échelle. Vous pouvez éventuellement spécifier la mémoire requise pour votre point de terminaison d'inférence sans serveur. Vous ne payez que la durée d’exécution du code d’inférence et la quantité de données traitées, pas les périodes d’inactivité.
Avec les points de terminaison sans serveur à la demande, si votre point de terminaison ne reçoit pas de trafic pendant un certain temps et qu’il reçoit soudainement de nouvelles demandes, il peut mettre un certain temps à mobiliser les ressources de calcul nécessaires au traitement des demandes. C'est ce qu'on appelle un démarrage à froid. Un démarrage à froid peut également se produire si vos demandes simultanées dépassent l'utilisation actuelle des demandes simultanées. Le temps de démarrage à froid dépend de la taille de votre modèle, du temps nécessaire pour télécharger votre modèle et du temps de démarrage de votre conteneur.
Pour réduire la variabilité de votre profil de latence, vous pouvez éventuellement activer la simultanéité allouée pour vos points de terminaison sans serveur. Grâce à la simultanéité allouée, vos points de terminaison sans serveur sont toujours prêts et peuvent répondre instantanément à des pics de trafic, sans aucun démarrage à froid.
Comme pour l’inférence sans serveur à la demande, lorsque la simultanéité provisionnée est activée, vous payez en fonction de la capacité de calcul utilisée pour traiter les demandes d’inférence, facturée à la milliseconde, et de la quantité de données traitées. Vous payez également pour l’utilisation de la simultanéité provisionnée, en fonction de la mémoire configurée, de la durée accordée et de la quantité de simultanéité activée. Pour en savoir plus, consultez la page Tarification Amazon SageMaker AI.
SageMaker AI vous aide à exécuter des essais miroirs pour évaluer un nouveau modèle de ML avant la mise en production en testant ses performances par rapport au modèle actuellement déployé. SageMaker AI déploie le nouveau modèle en mode miroir à côté du modèle de production actuel et met en miroir une partie du trafic de production spécifiée par l’utilisateur vers le nouveau modèle. Il enregistre éventuellement les inférences du modèle pour une comparaison hors ligne. Il fournit également un tableau de bord en direct avec une comparaison des principales mesures de performance, telles que la latence et le taux d’erreur, entre le modèle de production et le modèle fantôme pour vous aider à décider si vous devez promouvoir le nouveau modèle en production.
SageMaker AI simplifie le processus de mise en place et de surveillance des variantes fantômes afin que vous puissiez évaluer les performances du nouveau modèle ML sur le trafic de production en direct. Avec SageMaker AI, vous n’avez plus besoin d’orchestrer l’infrastructure pour les essais mirroirs. Il vous permet de contrôler les paramètres de test tels que le pourcentage de trafic renvoyé vers la variante fantôme et la durée du test. Par conséquent, vous pouvez commencer modestement et augmenter les demandes d’inférence au nouveau modèle après avoir pris confiance dans la performance du modèle. SageMaker AI crée un tableau de bord en direct affichant les différences de performance sur les principaux paramètres, afin que vous puissiez facilement comparer les performances des modèles pour évaluer la manière dont le nouveau modèle diffère du modèle de production.
SageMaker Inference Recommender accélère la mise en production des modèles de machine learning en automatisant le comparatif des performances et en ajustant les performances des modèles entre les instances SageMaker ML. Vous pouvez désormais utiliser SageMaker Inference Recommender pour déployer votre modèle sur un point de terminaison qui fournit des performances optimales et réduit les coûts. Vous pouvez commencer à utiliser SageMaker Inference Recommender en quelques minutes tout en sélectionnant un type d'instance et recevoir, en quelques heures, des recommandations pour optimiser les configurations des points de terminaison, ce qui vous évite de longues semaines de tests et de réglages manuels. Avec SageMaker Inference Recommender, il n’y a pas de frais supplémentaires : vous payez uniquement les instances ML SageMaker utilisées au cours des tests de charges.
Non, pour le moment, un seul modèle est pris en charge par point de terminaison.
Pour le moment, nous ne prenons en charge que les points de terminaison en temps réel.
Lors du lancement, nous prendrons en charge toutes les régions prises en charge par Amazon SageMaker, à l’exception des régions AWS de Chine.
Oui, nous prenons en charge tous les types de conteneurs. Amazon EC2 Inf1, basé sur la puce AWS Inferentia, nécessite un artefact de modèle compilé à l'aide du compilateur Neuron ou d'Amazon SageMaker Neo. Une fois que vous disposez d’un modèle compilé pour une cible Inferentia et l’URI d’image de conteneur associée, vous pouvez utiliser SageMaker Inference Recommender pour évaluer différents types d’instances Inferentia.
SageMaker Model Monitor permet aux développeurs de détecter et de corriger les dérives conceptuelles. SageMaker Model Monitor détecte automatiquement les dérives conceptuelles dans les modèles déployés et fournit des alertes détaillées qui aident à identifier la source du problème. Tous les modèles entraînés dans SageMaker AI émettent automatiquement des métriques clés qui peuvent être collectées et visualisées dans SageMaker Studio. À partir de SageMaker Studio, vous pouvez configurer les données à collecter, les modalités de visualisation et quand vous souhaitez recevoir des alertes.
Non. SageMaker AI gère l’infrastructure de calcul à votre place, lui permettant d’effectuer des surveillances de l’état, d’appliquer des correctifs de sécurité et de réaliser d’autres opérations de maintenance quotidienne. Vous pouvez également déployer les artefacts de modèle de la formation avec un code d’inférence personnalisé dans votre propre environnement d’hébergement.
L’hébergement de SageMaker AI se met automatiquement à l’échelle aux performances nécessaires à votre application à l’aide de la fonctionnalité d’autoscaling d’applications. En outre, vous pouvez modifier manuellement le nombre et le type d’instances tout en évitant les durées d’indisponibilité, en modifiant la configuration des points de terminaison.
SageMaker AI émet des métriques de performances dans Amazon CloudWatch Metrics pour vous permettre de suivre les métriques, de définir des alarmes et de réagir automatiquement aux fluctuations du trafic de production. De plus, SageMaker AI écrit des journaux dans Amazon CloudWatch Logs pour que vous puissiez surveiller et dépanner votre environnement de production.
SageMaker AI peut héberger tous les modèles conformes aux spécifications documentées pour les images Docker d’inférence. Cela inclut les modèles créés à partir des artefacts de modèles et du code d’inférence SageMaker AI.
SageMaker AI est conçu de manière à se mettre à l’échelle pour un grand nombre de transactions par seconde. Le nombre précis varie en fonction du modèle déployé et du nombre et du type d’instances sur lesquelles le modèle est déployé.
En tant que service entièrement géré, Amazon SageMaker AI se charge de la configuration et de la gestion des instances, de la compatibilité des versions logicielles et de l’application de correctifs aux versions. Il fournit également des métriques et des journaux intégrés pour les points de terminaison que vous pouvez utiliser pour surveiller et recevoir des alertes. Grâce aux outils et aux flux de travail guidés de SageMaker AI, l’ensemble du processus de packaging et de déploiement du modèle ML est simplifié, ce qui facilite l’optimisation des points de terminaison pour atteindre les performances souhaitées et réduire les coûts. Vous pouvez facilement déployer vos modèles ML, y compris les modèles de fondation, en quelques clics dans SageMaker Studio ou à l’aide du nouveau PySDK.
Batch Transform vous permet d’exécuter des prédictions sur des lots de données de grande ou de petite taille. Il n'est pas nécessaire de fragmenter le jeu de données ni de gérer les points de terminaison en temps réel. Avec une API simple, vous pouvez demander des prédictions pour un grand nombre d’enregistrements de données et transformer ces données rapidement et facilement.
SageMaker AI prend en charge les options de point de terminaison suivantes : points de terminaison à modèle unique – un modèle sur un conteneur hébergé sur des instances dédiées ou sans serveur pour une faible latence et un débit élevé. Points de terminaison multimodèle : hébergez plusieurs modèles à l’aide d’une infrastructure partagée pour une rentabilité et une utilisation maximale. Vous pouvez contrôler la quantité de calcul et de mémoire que chaque modèle peut utiliser pour vous assurer que chaque modèle a accès aux ressources dont il a besoin pour fonctionner efficacement. Pipelines d'inférence en série – plusieurs conteneurs partageant des instances dédiées et s'exécutant en séquence. Vous pouvez utiliser un pipeline d’inférence pour combiner des tâches de science des données de prétraitement, de prédiction et de post-traitement.
SageMaker Edge Manager est une fonctionnalité qui facilite l’optimisation, la sécurisation, la surveillance et la maintenance des modèles ML sur les flottes d’appareils en périphérie, tels que les caméras intelligentes, les robots, les ordinateurs personnels et les appareils mobiles. SageMaker Edge Manager aide les développeurs ML à utiliser leurs modèles ML sur différents appareils en périphérie à grande échelle.
Pour commencer avec SageMaker Edge Manager, vous devez compiler et créer des packages avec vos modèles ML entraînés dans le cloud, enregistrer vos appareils et les préparer avec le kit SDK SageMaker Edge Manager. Pour préparer votre modèle au déploiement, SageMaker Edge Manager utilise SageMaker Neo pour le compiler pour votre matériel périphérique cible. Une fois un modèle compilé, SageMaker Edge Manager le signe avec une clé générée par AWS, puis crée un package du modèle avec son exécution et vos informations d'identification nécessaires afin de préparer son déploiement. Du côté de l'appareil, vous enregistrez votre appareil sur SageMaker Edge Manager, téléchargez le kit SDK SageMaker Edge Manager, puis suivez les instructions pour installer l'agent SageMaker Edge Manager sur vos appareils. Le bloc-notes du didacticiel présente un exemple étape par étape de la préparation des modèles et de leur connexion sur les appareils en périphérie avec SageMaker Edge Manager.
SageMaker Edge Manager prend en charge les appareils à CPU (ARM, x86) et GPU (ARM, Nvidia) courants avec les systèmes d’exploitation Linux et Windows. Avec le temps, SageMaker Edge Manager se développera pour prendre en charge d’autres processeurs incorporés et plateformes mobiles qui sont également pris en charge par SageMaker Neo.
Non. Vous pouvez entraîner vos modèles ailleurs ou utiliser un modèle pré-entraîné en open source ou par votre fournisseur de modèles.
Oui. Amazon SageMaker Neo convertit et compile vos modèles en un exécutable que vous pouvez ensuite mettre en package et déployer sur vos appareils en périphérie. Une fois le package du modèle déployé, l’agent SageMaker Edge Manager décompresse le package du modèle et exécute le modèle sur l’appareil.
SageMaker Edge Manager stocke le package du modèle dans le compartiment Amazon S3 que vous spécifiez. Vous pouvez utiliser la fonction de déploiement par voie hertzienne (OTA) offerte par AWS IoT Greengrass ou tout autre mécanisme de déploiement de votre choix pour déployer le package du modèle sur les appareils à partir de votre compartiment S3.
Neo dlr est une exécution open source qui exécute uniquement les modèles compilés par le service SageMaker Neo. Comparé au dlr open source, le kit SDK SageMaker Edge Manager comprend un agent professionnel sur l'appareil avec des fonctions supplémentaires de sécurité, ainsi que de gestion et de diffusion de modèles. Le kit SDK SageMaker Edge Manager est adapté au déploiement en production à grande échelle.
SageMaker Edge Manager et AWS IoT Greengrass peuvent fonctionner ensemble dans votre solution IoT. Une fois le package de votre modèle ML créé avec SageMaker Edge Manager, vous pouvez utiliser la fonction de mise à jour OTA d'AWS IoT Greengrass pour déployer le package du modèle sur votre appareil. AWS IoT Greengrass vous permet de surveiller vos appareils IoT à distance, tandis que SageMaker Edge Manager vous aide à surveiller et maintenir les modèles ML sur les appareils.
AWS offre le plus large et le plus riche ensemble de fonctionnalités pour l’exécution de modèles sur les appareils en périphérie. Nous disposons de services pour prendre en charge un large éventail de cas d'utilisation, notamment la reconnaissance d'images, la reconnaissance vocale et la maintenance prédictive.
Les entreprises qui souhaitent utiliser la reconnaissance d'images sur des appareils en périphérie, tels que les caméras et les appliances, peuvent utiliser AWS Panorama. AWS Panorama offre des applications de reconnaissance d’images prêtes à déployer pour les appareils en périphérie. Pour démarrer avec AWS Panorama, il suffit de se connecter à la console cloud, de spécifier le modèle à utiliser dans Amazon S3 ou dans SageMaker AI, puis d’écrire la logique métier sous la forme d’un script Python. AWS Panorama compile le modèle pour l’appareil cible et crée un package d’application déployable sur vos appareils en quelques clics. En outre, les fournisseurs de logiciels indépendants qui souhaitent créer leurs propres applications personnalisées peuvent utiliser le kit SDK AWS Panorama, tandis que les fabricants d'appareils peuvent utiliser le kit SDK Device pour certifier leurs appareils pour AWS Panorama.
Les clients qui souhaitent créer leurs propres modèles et bénéficier d'un contrôle plus précis sur les fonctions de modèles peuvent utiliser Amazon SageMaker Edge Manager. SageMaker Edge Manager est un service géré permettant de préparer, d'exécuter, de surveiller et de mettre à jour des modèles ML dans des flottes d'appareils en périphérie (comme des robots ainsi que des caméras et des haut-parleurs intelligents). Il convient pour tous les cas d'utilisation, tels que le traitement du langage naturel, la détection de fraude et la maintenance prédictive. SageMaker Edge Manager est destiné aux développeurs en périphérie ML qui souhaitent disposer d’un contrôle sur leur modèle, notamment en concevant différentes caractéristiques de modèle et en surveillant la dérive des modèles. Tous les développeurs en périphérie ML peuvent utiliser SageMaker Edge Manager au moyen de la console SageMaker et des API SageMaker AI. SageMaker Edge Manager intègre les fonctionnalités de SageMaker AI pour créer, entraîner et déployer des modèles du cloud sur des appareils en périphérie.
SageMaker Edge Manager est disponible dans les six régions AWS suivantes : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon), UE (Irlande), UE (Francfort) et Asie-Pacifique (Tokyo). Consultez la liste des services régionaux AWS pour plus de détails.
SageMaker Neo permet aux modèles ML d’être entraînés une fois, puis d’être exécutés n’importe où dans le cloud et en périphérie. SageMaker Neo optimise automatiquement les modèles créés avec les cadres de deep learning courants qui peuvent être utilisés pour un déploiement sur plusieurs plateformes matérielles. Les modèles optimisés s’exécutent 25 fois plus vite et consomment moins d’un dixième des ressources des modèles ML types.
Pour démarrer avec SageMaker Neo, vous devez vous connecter à la console SageMaker AI, choisir un modèle entraîné, suivre l’exemple de compilation de modèles, puis déployer le modèle ainsi obtenu sur votre plateforme matérielle cible.
SageMaker Neo comprend deux composants majeurs : un compilateur et une exécution. Pour commencer, le compilateur Neo lit les modèles exportés par différents cadres. Il convertit alors les fonctions et opérations spécifiques au cadre en une représentation intermédiaire agnostique de cadre. Ensuite, il effectue une série d'optimisations. Puis, le compilateur génère du code binaire pour les opérations optimisées et les écrit dans la bibliothèque d'objets partagés. Le compilateur enregistre également la définition et les paramètres du modèle dans des fichiers séparés. Lors de l’exécution, l’exécution SageMaker Neo charge les artefacts créés par le compilateur (définition de modèle, paramètres et bibliothèque d’objets partagés) pour exécuter le modèle.
Non. Vous pouvez former des modèles ailleurs et utiliser SageMaker Neo afin de les optimiser pour des instances SageMaker ML ou des appareils AWS IoT Greengrass pris en charge.
SageMaker Neo prend actuellement en charge les modèles les plus populaires de deep learning pour les applications de vision par ordinateur et les modèles d’arbre décisionnel utilisés aujourd’hui dans SageMaker AI. SageMaker Neo optimise le fonctionnement des modèles AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet et DenseNet entraînés dans MXNet et TensorFlow, et les modèles de classification et RCF (Random Cut Forest) entraînés dans XGBoost.
Vous trouverez les listes des instances cloud prises en charge, des appareils en périphérie et des versions de cadres dans la documentation de SageMaker Neo.
Pour voir la liste des régions prises en charge, consultez la liste des services régionaux AWS.
SageMaker HyperPod permet désormais de déployer des modèles de fondation à poids variable à partir de SageMaker JumpStart ou de déployer vos propres modèles peaufinés à partir d’Amazon S3 et Amazon FSx en quelques étapes simples. Une fois que vous avez sélectionné un modèle, SageMaker HyperPod gère automatiquement le provisionnement de l’infrastructure, la configuration du point de terminaison et la configuration de la mise à l’échelle automatique, tout en publiant simultanément des mesures de performance complètes sur le tableau de bord d’observabilité pour une surveillance et une optimisation en temps réel.
Amazon SageMaker Savings Plans
Ouvrir toutSageMaker Savings Plans est un modèle de tarification flexible pour SageMaker AI, en échange d’un engagement à une quantité constante d’utilisation (mesurée en USD/heure) pendant 1 ou 3 ans. SageMaker Savings Plans offre la plus grande flexibilité, et jusqu’à 64 % de réduction sur vos coûts. Ces plans s'appliquent automatiquement à l'utilisation des instances ML SageMaker éligibles, comme les blocs-notes SageMaker Studio, les blocs-notes SageMaker à la demande, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference et SageMaker Batch Transform, indépendamment de la famille et de la taille d'instance ou de la région. Par exemple, vous pouvez à tout moment passer d’une instance de processeur ml.c5.xlarge s’exécutant dans la région USA Est (Ohio) à une instance ml.Inf1 s’exécutant dans la région USA Ouest (Oregon) pour des charges de travail d’inférence, et toujours bénéficier automatiquement de la tarification Savings Plans.
Si votre consommation d’instances SageMaker AI (mesurée en USD/heure) est régulière et que vous utilisez plusieurs composants SageMaker AI ou que vous prévoyez une évolution de la configuration technologique (par exemple la famille d’instance ou la région) au fil du temps, SageMaker Savings Plans est très économique et offre une grande flexibilité pour modifier la configuration technologique sous-jacente en fonction des besoins des applications ou des innovations. La tarification Savings Plans s’applique automatiquement à l’utilisation de toutes les instances ML éligibles, sans intervention manuelle de votre part.
La différence entre les Savings Plans pour SageMaker AI et les Savings Plans pour Amazon EC2 réside dans le service qu’ils incluent. SageMaker Savings Plans s’applique uniquement à l’utilisation des instances ML SageMaker.
Il est possible d’acheter des Savings Plans dans n’importe quel compte d’une famille AWS Organizations/de facturation consolidée. Par défaut, les avantages des Savings Plans s’appliquent à l’utilisation sur tous les comptes d’une famille AWS Organizations/de facturation consolidée. Toutefois, vous pouvez également limiter les avantages des Savings Plans au compte qui a été utilisé pour en faire l’acquisition.
Personnaliser des modèles
Ouvrir toutOui, avec Amazon SageMaker AI, vous pouvez accélérer le flux de personnalisation des modèles. Démarrez rapidement, soit via un flux de travail guidé par un agent d’IA (en version préliminaire), soit via l’interface utilisateur (UI) facile à utiliser. À l’aide de l’agent d’IA (en version préliminaire), vous pouvez formuler votre cas d’utilisation en langage naturel. Sur la base de la description des exigences de votre cas d’utilisation, l’agent d’IA génère une spécification qui inclut des directives relatives aux jeux de données, des critères d’évaluation, des mesures associées, ainsi qu’une technique de personnalisation. L’interface conversationnelle permet d’itérer et d’affiner davantage les spécifications de votre cas d’utilisation si nécessaire. Grâce à l’interface utilisateur facile à utiliser, vous pouvez lancer rapidement des expériences de personnalisation de modèles en quelques clics, en commençant par identifier les critères d’évaluation des modèles, sélectionner un modèle et une technique de personnalisation, puis charger un jeu de données. SageMaker AI sélectionne et alloue automatiquement les ressources de calcul appropriées en fonction du modèle et de la taille des données.
Une fois que vous avez atteint les objectifs de précision et de performance souhaités, vous pouvez déployer des modèles en production en quelques clics via les points de terminaison SageMaker Inference ou Amazon Bedrock. Si vous souhaitez plus de contrôle et de flexibilité, vous pouvez aussi personnaliser les modèles IA avec du code à l’aide de recettes optimisées. Chaque recette est testée par AWS, ce qui élimine des semaines de travail fastidieux à tester différentes configurations de modèles pour obtenir des performances de pointe.
SageMaker AI prend en charge les dernières techniques de personnalisation des modèles, notamment le peaufinage supervisé (SFT), l’optimisation directe des préférences (DPO), l’apprentissage par renforcement à partir du retour d’information de l’IA (RLAIF) et les récompenses vérifiables (RLVR).
Dans SageMaker Studio, sélectionnez l’onglet Modèles pour commencer à utiliser l’interface utilisateur facile à utiliser ou via le bloc-notes.
SageMaker AI propose un entraînement sans serveur, ce qui élimine le besoin de sélectionner et de gérer des instances. Vous payez uniquement pour les jetons traités pendant l’entraînement. Pour plus d’informations, consultez la page Tarification SageMaker AI.
Le flux guidé par un agent d’IA pour la personnalisation des modèles dans Amazon SageMaker AI est actuellement en version préliminaire. Vous pouvez demander une invitation pour rejoindre la version préliminaire. Une fois votre demandée acceptée, vous recevrez une invitation à l’adresse e-mail fournie.
Avez-vous trouvé les informations que vous recherchiez ?
Faites-nous part de vos commentaires afin que nous puissions améliorer le contenu de nos pages