Questions fréquentes (FAQ) sur Amazon SageMaker

Questions d'ordre général

SageMaker est un service entièrement géré permettant de préparer les données et construire, entraîner et de déployer rapidement et facilement des modèles de machine learning (ML) pour tous les cas d'utilisation avec une infrastructure, des outils et des flux entièrement gérés.

Pour obtenir la liste des régions dans lesquelles le service SageMaker est pris en charge, consultez la page des Services Régionaux AWS. Pour en savoir plus, consultez régions et points de terminaison du guide de références générales AWS.

Le service SageMaker est conçu pour offrir une haute disponibilité. Il n'y a ni fenêtres de maintenance ni arrêts programmés. Les API SageMaker s'exécutent dans les centres de données fiables et hautement disponibles d'Amazon. En outre, elles offrent une réplication de piles de services configurée dans trois installations au sein de chaque région AWS afin de garantir une tolérance aux pannes en cas de panne au niveau du serveur ou de la zone de disponibilité.

SageMaker stocke votre code dans des volumes de stockage de machine learning qui sont sécurisés par des groupes de sécurité et éventuellement chiffrés au repos.

SageMaker garantit que les artefacts de modèles d'apprentissage automatique et d'autres artefacts du système sont chiffrés en transit et au repos. Les requêtes sont envoyées à l'API et à la console SageMaker par le biais d'une connexion sécurisée (SSL). Vous transmettez des rôles de gestion des identités et des accès AWS à SageMaker afin d'accorder des autorisations d'accès aux ressources en votre nom à des fins d'entraînement et de déploiement. Vous pouvez utiliser des compartiments Amazon Simple Storage Service (Amazon S3) chiffrés pour les artefacts et les données de modèles, ainsi que pour transmettre une clé AWS Key Management Service (KMS) à des blocs-notes, des tâches d'entraînement et des points de terminaison SageMaker, afin de chiffrer le volume de stockage de ML attaché. SageMaker prend également en charge Amazon Virtual Private Cloud (VPC) et AWS PrivateLink.

SageMaker n'utilise pas et ne partage pas des modèles, des données d'entraînement ou des algorithmes. Nous sommes conscients du fait que, pour nos clients, la confidentialité et la sécurité des données sont primordiales. C'est pourquoi avec AWS, vous restez propriétaire de votre contenu et vous en gardez le contrôle grâce à des outils simples et puissants qui permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, ainsi que de gérer l'accès aux services et ressources AWS pour vos utilisateurs. Nous mettons également en œuvre un système élaboré responsable des contrôles techniques et physiques, visant à éviter tout accès ou toute divulgation non autorisés du contenu des clients. En tant que client, vous restez propriétaire de votre contenu et vous sélectionnez quels services AWS peuvent traiter, stocker et héberger votre contenu. Nous ne consultons pas votre contenu à quelque fin que ce soit sans votre consentement.

Vous payez les ressources de calcul, de stockage et de traitement des données d'apprentissage automatique que vous utilisez pour héberger le bloc-notes, entraîner le modèle, réaliser des prédictions et journaliser les sorties. Amazon SageMaker vous permet de sélectionner le nombre et le type d'instances utilisées pour le bloc-notes hébergé, l'entraînement et l'hébergement de modèles. Vous payez uniquement pour ce que vous utilisez et en fonction de votre consommation ; il n'y a pas de frais minimums et aucun engagement initial n'est requis. Pour en savoir plus, consultez Tarification Amazon SageMaker et Calculateur de tarification Amazon SageMaker.

Différentes bonnes pratiques vous permettent d'optimiser l'utilisation de vos ressources Amazon SageMaker. Certaines approches impliquent des optimisations de configurations, d'autres des solutions programmatiques. Vous trouverez un guide complet sur ce concept, avec didacticiels visuels et exemples de code, dans cet article de blog.

Amazon SageMaker fournit un flux de travail complet de bout en bout, mais vous pouvez à utiliser vos outils existants avec le service. Vous pouvez facilement transférer les résultats de chaque étape vers et depuis SageMaker en fonction de vos besoins métier.

Oui. Vous pouvez utiliser R dans les instances de blocs-notes SageMaker, qui incluent un noyau R pré-installé et la bibliothèque réticulaire. Le réticulaire offre une interface R pour le kit Amazon SageMaker Python SDK, ce qui permet aux praticiens du ML de créer, d'entraîner, de régler et de déployer des modèles R. Vous pouvez également lancer RStudio, un environnement de développement intégré (IDE) pour R dans Amazon SageMaker Studio.  

Amazon SageMaker Studio fournit une interface visuelle unique, basée sur le Web, qui vous permet de mettre en œuvre toutes les étapes du développement ML. Grâce à SageMaker Studio, vous avez un accès, un contrôle et une visibilité complets sur chaque étape nécessaire à la préparation des données et à la construction, l'entraînement et le déploiement des modèles. Vous pouvez télécharger des données, créer des blocs-notes, entraîner et affiner des modèles, faire des aller-retours entre les étapes pour ajuster les expériences, comparer les résultats et déployer des modèles en production ; le tout rapidement et au même endroit, ce qui accroît votre productivité. Toutes les activités de développement ML peuvent être réalisées à l'intérieur de l'interface visuelle unifiée de SageMaker Studio, notamment les blocs-notes, la gestion d'expériences, la création automatique de modèles, le débogage et le profilage, et la détection de dérive des modèles.

L'utilisation de SageMaker Studio ne donne lieu à aucun frais supplémentaire. Vous ne payez que les frais sous-jacents de calcul et de stockage pour les services que vous utilisez dans Amazon SageMaker Studio.

Les régions dans lesquelles Amazon SageMaker Studio est pris en charge figurent dans la documentation disponible ici.

Amazon SageMaker Clarify contribue à l'amélioration de la transparence du modèle en détectant les biais statistiques dans l'ensemble du flux de ML. SageMaker Clarify recherche les déséquilibres pendant la préparation des données, après l'entraînement et de manière continue, et comprend des outils destinés à faciliter l'explication des modèles ML et leurs prédictions. Les résultats peuvent être partagés via des rapports d'explicabilité.

La mesure du biais dans les modèles ML est la première étape de l'atténuation du biais. Le biais peut être mesuré avant l'entraînement (dans le cadre de la préparation des données), après l'entraînement (à l'aide d'Amazon SageMaker Experiments) et lors de l'inférence pour un modèle déployé (avec Amazon SageMaker Model Monitor). Chacune des plus de 20 métriques de biais correspond à une notion différente d'équité. Vous choisissez des métriques qui sont valides pour l'application et la situation étudiées. Par exemple, avant l'entraînement, des métriques telles que le déséquilibre des classes et les différences dans la distribution des étiquettes entre les groupes permettent de vérifier si les données d'entraînement sont représentatives de la population globale. SageMaker Clarify prend en compte à la fois les différences de résultats positives (favorables) et les différences de distribution des étiquettes individuelles afin de détecter si un groupe est sous-représenté. Après l'entraînement ou pendant le déploiement, les métriques de biais permettent de mesurer si, et dans quelle mesure, les performances du modèle diffèrent d'un groupe à l'autre. Des métriques telles que la représentation égale et l'impact disparate mesurent les différences entre les prévisions positives. Des métriques de performance égales telles que la différence de précision (probabilité qu'une prédiction positive soit correcte) et de rappel (probabilité que le modèle qualifie correctement un exemple positif) évaluent la distribution égale des erreurs entre les groupes. Pour en savoir plus, consultez cet article de blog. 

Amazon SageMaker Clarify est intégré à SageMaker Experiments pour présenter un graphique de l'importance des caractéristiques détaillant l'importance de chaque entrée dans le processus global de prise de décision de votre modèle après son entraînement. Ces informations peuvent aider à déterminer si une entrée spécifique du modèle a plus d'influence qu'elle ne le devrait sur le comportement global du modèle. SageMaker Clarify fournit également des explications concernant chaque prédiction disponible via une API. 

Gouvernance ML

Amazon SageMaker fournit des outils de gouvernance spécialement conçus pour le cycle de vie ML. Avec le gestionnaire de rôles Amazon Sagemaker, les administrateurs peuvent définir les autorisations minimales en quelques minutes. Les cartes de modèles Amazon Sagemaker facilitent la capture, la récupération et le partage des informations essentielles du modèle, de la conception au déploiement, et le tableau de bord des modèles SageMaker vous tient informé du comportement du modèle de production, le tout en un seul endroit. Pour
plus d'informations, consultez la section de la Gouvernance du ML avec Amazon SageMaker.

Définir les autorisations minimales en quelques minutes avec SageMaker Role Manager. SageMaker Role Manager fournit un ensemble d'autorisations de base pour les activités et les personas de ML avec un catalogue de politiques IAM préétablies. En fonction de vos besoins spécifiques, vous pouvez conserver les autorisations de base ou les personnaliser davantage. Grâce à quelques invites auto-guidées, vous pouvez saisir rapidement des éléments de gouvernance courants tels que les limites d'accès au réseau et les clés de cryptage. SageMaker Role Manager génère alors automatiquement la politique IAM. Vous pouvez découvrir le rôle généré et les politiques associées via la console AWS IAM. Pour adapter davantage les autorisations à votre cas d'utilisation, attachez vos politiques IAM gérées au rôle IAM que vous créez avec SageMaker Role Manager. Vous pouvez également ajouter des balises pour faciliter l'identification du rôle et l'organisation entre les services AWS.

Amazon SageMaker Model Cards vous aide à centraliser et à normaliser la documentation du modèle tout au long du cycle du ML en créant une source unique de vérité pour les informations du modèle. SageMaker Model Cards remplit automatiquement les détails de la formation pour accélérer le processus de documentation. Vous pouvez également ajouter des détails tels que l'objectif du modèle et les objectifs de performance. Vous pouvez joindre les résultats de l'évaluation du modèle à votre fiche de modèle et fournir des visualisations pour obtenir des informations clés sur les performances du modèle. Les cartes modèles SageMaker peuvent facilement être partagées avec d'autres personnes en les exportant au format PDF.

Amazon SageMaker Model Dashboard vous donne un aperçu complet des modèles et des points de terminaison déployés, vous permettant de suivre les ressources et les violations du comportement du modèle dans un seul volet. Il vous permet de surveiller le comportement du modèle dans quatre dimensions, notamment la qualité des données et du modèle, ainsi que la dérive des biais et de l'attribution des fonctionnalités grâce à son intégration avec Amazon SageMaker Model Monitor et Amazon SageMaker Clarify. SageMaker Model Dashboard offre également une expérience intégrée permettant de configurer et de recevoir des alertes pour les tâches de surveillance de modèle manquantes et inactives, et les déviations du comportement du modèle pour la qualité du modèle, la qualité des données, la dérive du biais et la dérive de l'attribution des caractéristiques. Vous pouvez inspecter plus en détail les modèles individuels et analyser les facteurs qui influent sur les performances des modèles au fil du temps. Ensuite, vous pouvez prendre des mesures correctives en assurant le suivi avec les praticiens du ML.

Modèles de fondation

SageMaker JumpStart vous aide à vous familiariser avec le machine learning de manière facile et rapide. SageMaker JumpStart fournit un ensemble de solutions pour les cas d'utilisation les plus courants qui peuvent être déployés en quelques clics. Les solutions sont entièrement personnalisables et présentent l'utilisation des modèles AWS CloudFormation ainsi que les architectures de référence de sorte que vous puissiez accélérer votre adoption du ML. SageMaker JumpStart fournit également des modèles de base et permet le déploiement en un clic et le réglage précis de plus de 150 modèles open source populaires tels que les modèles de transformation, de détection d'objets et de classification d'images. 

SageMaker JumpStart fournit des modèles brevetés et publics. Pour obtenir la liste des modèles de base disponibles, consultez la section Démarrer avec Amazon SageMaker JumpStart.

Vous pouvez accéder aux modèles de base via SageMaker Studio, le SDK SageMaker et la console de gestion AWS. Pour commencer à utiliser des modèles de base brevetés, vous devez accepter les conditions de vente sur AWS Marketplace.

Non. Vos données d'inférence et d'entraînement ne seront ni utilisées ni partagées pour mettre à jour ou entraîner le modèle de base que SageMaker JumpStart propose aux clients.

Non. Les modèles propriétaires ne permettent pas aux clients de consulter les poids des modèles et les scripts.

Les modèles sont mis à disposition dans toutes les régions où SageMaker Studio est disponible, mais la possibilité de déployer un modèle varie selon le type d'instance requis et de la disponibilité du modèle. Vous pouvez consulter la disponibilité de la Région AWS et l'instance requise sur la page détaillée du modèle sur AWS Marketplace.

Pour les modèles brevetés, vous êtes facturé selon la tarification logicielle déterminée par le fournisseur du modèle et les frais d'infrastructure SageMaker en fonction de l'instance utilisée. Pour les modèles accessibles au public, les frais d'infrastructure SageMaker vous sont facturés en fonction de l'instance utilisée. Pour en savoir plus, consultez la page Tarification d'Amazon SageMaker et AWS Marketplace.

La sécurité est la priorité absolue d'AWS, et SageMaker JumpStart est conçu pour être sécurisé. C'est pourquoi SageMaker vous donne la propriété et le contrôle de votre contenu grâce à des outils simples et puissants qui vous permettent de déterminer où votre contenu sera stocké, de sécuriser votre contenu en transit et au repos, et de gérer l'accès aux services et ressources AWS pour vos utilisateurs.

  1. Nous ne partageons pas les informations relatives à la formation et aux inférences des clients avec les vendeurs de modèles sur AWS Marketplace. De même, les modèles d'artefacts du vendeur (par exemple, le poids du modèle) ne sont pas partagés avec l'acheteur.
  2. SageMaker JumpStart n'utilise pas de modèles clients, de données de formation ou d'algorithmes pour améliorer son service et ne partage pas les données de formation et d'inférence des clients avec des tiers.
  3. Dans SageMaker JumpStart, les artefacts du modèle ML sont chiffrés en transit et au repos.
  4. Dans le cadre du modèle de responsabilité partagée d'AWS, AWS est responsable de la protection de l'infrastructure mondiale qui gère l'ensemble d'AWS. Vous êtes responsable du contrôle du contenu qui est hébergé sur cette infrastructure.

En utilisant un modèle issu d'AWS Marketplace ou de SageMaker JumpStart, les utilisateurs assument la responsabilité de la qualité de sortie du modèle et reconnaissent les fonctionnalités et les limites décrites dans la description de chaque modèle.

SageMaker JumpStart comprend plus de 150 modèles open source pré-entraînés de PyTorch Hub et TensorFlow Hub. Pour les tâches de vision par ordinateur, telles que la classification d'images et la détection d'objets, vous pouvez utiliser des modèles CNN comme ResNet, MobileNet et Single-Shot Detector (SSD). Pour les tâches de texte, comme la classification de phrases et de textes, et la réponse aux questions, vous pouvez utiliser des modèles comme BERT, RoBERTa et DistilBERT.

Avec SageMaker JumpStart, les analyseur des données et les développeurs ML peuvent facilement partager les artefacts ML, notamment les blocs-notes et les modèles, au sein de leur organisation. Les administrateurs peuvent mettre en place un référentiel accessible par un ensemble défini d'utilisateurs. Tous les utilisateurs autorisés à accéder au référentiel peuvent parcourir, rechercher et utiliser les modèles et les blocs-notes ainsi que le contenu public à l'intérieur de SageMaker JumpStart. Les utilisateurs peuvent sélectionner des artefacts pour former des modèles, déployer des points de terminaison et exécuter des blocs-notes dans SageMaker JumpStart.

Avec SageMaker JumpStart, vous pouvez accélérer la mise sur le marché lors de la création d'applications ML. Vous pouvez facilement partager, en quelques clics, les modèles et les blocs-notes créés par une équipe au sein de votre organisation avec d'autres équipes de votre organisation. Le partage des connaissances en interne et la réutilisation des actifs peuvent augmenter considérablement la productivité de votre organisation.

Amazon SageMaker Clarify prend désormais en charge l'évaluation des modèles de fondation. Vous pouvez évaluer, comparer et sélectionner les meilleurs modèles de fondation pour votre cas d'utilisation spécifique. Choisissez simplement le modèle que vous souhaitez évaluer pour une tâche donnée, telle que répondre à une question ou résumer un contenu. Sélectionnez ensuite les critères d'évaluation (par exemple, précision, équité et robustesse) et chargez votre propre jeu de données d'invites ou faites votre choix parmi des jeux de données intégrés accessibles publiquement. Pour des critères subjectifs ou du contenu nuancé exigeant un avis humain sophistiqué, vous pouvez faire appel à vos propres employés ou à une main-d'œuvre gérée fournie par AWS pour examiner les réponses. Une fois le processus de configuration terminé, SageMaker Clarify effectue ses évaluations et génère un rapport qui vous permet de comprendre facilement les performances du modèle en fonction de critères clés. Vous pouvez évaluer les modèles de fondation dans SageMaker JumpStart à l'aide de l'assistant d'évaluation ou tout modèle de fondation qui n'est pas hébergé sur AWS à l'aide de la bibliothèque open source.

Oui. Les administrateurs peuvent contrôler quels modèles Amazon SageMaker JumpStart sont visibles et utilisables par leurs utilisateurs sur plusieurs comptes AWS et principaux utilisateurs. Pour en savoir plus, consultez la documentation.

ML à faible code

SageMaker Canvas est un service sans code pourvu d'une interface visuelle intuitive de type pointer-cliquer qui vous permet de créer des prédictions très précises basées sur le ML à partir de vos données. SageMaker Canvas vous permet d'accéder à des données provenant de diverses sources et de les combiner à l'aide d'une interface utilisateur de type glisser-déposer, en nettoyant et en préparant automatiquement les données afin de minimiser le nettoyage manuel. SageMaker Canvas applique une variété d'algorithmes ML de pointe pour trouver des modèles prédictifs très précis et fournit une interface intuitive pour faire des prédictions. Vous pouvez utiliser SageMaker Canvas pour faire des prédictions encore plus précises dans un éventail d'applications métier, et collaborer aisément avec des scientifiques des données et des analystes au sein de votre entreprise en partageant vos modèles, données et rapports. Pour en savoir plus sur SageMaker Canvas, consultez la FAQ d'Amazon SageMaker Canvas.

Avec SageMaker Canvas, vous payez en fonction de l'utilisation. Grâce à SageMaker Canvas vous pouvez ingérer, explorer et préparer de manière interactive vos données provenant de plusieurs sources, d'entraîner des modèles ML très précis avec vos données et de générer des prédictions. Deux éléments déterminent votre facture : les frais de session, basés sur le nombre d'heures d'utilisation ou de connexion à SageMaker Canvas, et les frais d'entraînement du modèle, basés sur la taille de jeu de données utilisé pour construire le modèle. Pour en savoir plus, consultez la page Tarification Amazon SageMaker Canvas.

Flux de travail ML

Amazon SageMaker Pipelines vous aide à créer des flux de ML entièrement automatisés, de la préparation des données au déploiement du modèle, de sorte que vous puissiez mettre à l'échelle jusqu'à des milliers de modèles ML en production. Vous pouvez créer des pipelines avec le SDK Python de SageMaker et les visualiser, les exécuter et les auditer à partir de l'interface visuelle de SageMaker Studio. Amazon SageMaker Pipelines se charge de la gestion des données entre les étapes, de la création de packages des recettes de code et de l'orchestration de leur exécution, ramenant ainsi des mois de codage à quelques heures. À chaque exécution d'un flux, un registre complet des données traitées et des actions exécutées est conservé afin que les scientifiques des données et les développeurs ML puissent rapidement déboguer les problèmes.

Vous pouvez utiliser une étape d'enregistrement des modèles dans votre SageMaker Pipeline pour regrouper tous les modèles candidats au déploiement en un seul endroit. Plus tard, vous ou un autre membre de votre équipe pourrez découvrir, examiner et approuver ces modèles en vue de leur déploiement dans le SageMaker Model Registry, soit via l'interface utilisateur de SageMaker Studio, soit via le SDK Python.
Un SageMaker Pipeline est composé d'« étapes ». Vous pouvez choisir l'un des types d'étapes pris en charge de manière native pour composer un flux de travail faisant appel à diverses fonctionnalités de SageMaker (par exemple, entraînement, évaluation) ou à d'autres services AWS (par exemple EMR, Lambda). Vous pouvez également transférer votre code Python de ML existant dans le SageMaker Pipeline en utilisant le décorateur python « @step » ou en ajoutant des blocs-notes Python entiers en tant que composants du pipeline. Pour plus de détails, veuillez consulter le guide du développeur de SageMaker Pipelines.
Amazon SageMaker Pipelines assure automatiquement le suivi de tous les éléments des modèles et conserve un journal d'activité d'audit de toutes les modifications, ce qui élimine tout suivi manuel et peut vous aider à atteindre vos objectifs de conformité. SageMaker Pipelines vous permet de suivre les données, le code, les modèles entraînés et plus encore.

SageMaker Pipelines est disponible sans frais supplémentaires. Vous ne payez que les frais sous-jacents de calcul ou les frais d'éventuels services AWS que vous utilisez dans SageMaker Pipelines.

Oui. Amazon SageMaker Components pour Kubeflow Pipelines sont des plugins open source qui vous permettent d'utiliser Kubeflow Pipelines pour définir vos flux ML et SageMaker pour les étapes d'étiquetage, d'entraînement et d'inférence des données. Kubeflow Pipelines est un module complémentaire pour Kubeflow qui vous permet de créer et de déployer des pipelines ML de bout en bout portables et évolutifs. Cependant, lorsqu'elles utilisent Kubeflow Pipelines, les équipes d'opérations ML doivent gérer un cluster Kubernetes avec des instances de CPU et de GPU et maintenir son utilisation élevée en permanence pour réduire les frais d'utilisation. La maximisation de l'utilisation d'un cluster au sein des équipes de science des données est un défi. Cela multiplie davantage la charge pour les équipes d'opérations ML. En tant qu'alternative à un cluster Kubernetes optimisé pour le ML, avec Amazon SageMaker Components pour Kubeflow Pipelines vous permet de tirer parti de puissantes fonctions SageMaker, telles que l'étiquetage des données, le réglage d'hyperparamètres à grande échelle entièrement géré et les tâches d'entraînement distribuées, le déploiement en un clic de modèles sécurisés et évolutifs et l'entraînement économique à l'aide d'instances Spot Amazon Elastic Compute Cloud (Amazon EC2), le tout sans devoir configurer et gérer des clusters Kubernetes pour exécuter spécifiquement les tâches ML.

SageMaker Components pour Kubeflow Pipelines est disponible sans frais supplémentaires. 

Intervention humaine

L'humain dans la boucle est le processus qui consiste à exploiter les données humaines tout au long du cycle de vie du ML afin d'améliorer la précision et la pertinence des modèles. Les humains peuvent effectuer diverses tâches, allant de la génération et de l'annotation de données à la révision et à la personnalisation des modèles. L'intervention humaine est particulièrement importante pour les applications d'IA générative, où les humains sont généralement à la fois le demandeur et le consommateur du contenu. Il est donc essentiel que les humains entraînent les modèles de fondation (FM) à répondre de manière précise, sûre et pertinente aux demandes des utilisateurs. Les commentaires humains peuvent être appliqués pour vous aider à accomplir plusieurs tâches. Tout d'abord, en créant des jeux de données d'entraînement labellisés de haute qualité pour des applications d'IA générative via un apprentissage supervisé (où un humain simule le style, la longueur et la précision de la manière dont un modèle doit répondre aux instructions de l'utilisateur) et un apprentissage de renforcement avec des commentaires humains (où un humain classe et classifie les réponses du modèle). Ensuite, en utilisant des données générées par l'homme pour personnaliser les FM en fonction de tâches spécifiques ou avec des données spécifiques à votre entreprise et à votre domaine et pour rendre les résultats du modèle pertinents pour vous.

Les fonctionnalités de l'humain dans la boucle jouent un rôle important dans la création et l'amélioration des applications d'IA générative à technologie de FM. Une main-d'œuvre humaine hautement qualifiée formée selon les directives relatives aux tâches peut fournir des commentaires, des conseils, des contributions et des évaluations dans le cadre d'activités telles que la génération de données de démonstration pour entraîner les FM, la correction et l'amélioration des exemples de réponse, l'affinement d'un modèle basé sur les données de l'entreprise et de l'industrie, la protection contre la toxicité et les biais, etc. Les fonctionnalités de l'humain dans la boucle peuvent donc améliorer la précision et les performances des modèles. 

Amazon SageMaker Ground Truth propose l'ensemble le plus complet de fonctionnalités de l'humain dans la boucle. Il existe deux manières d'utiliser Amazon SageMaker Ground Truth : une offre en libre-service et une offre gérée par AWS. Dans le cadre de l'offre en libre-service, vos annotateurs de données, vos créateurs de contenu et vos ingénieurs de requête (en interne, gérés par le fournisseur ou tirant parti du public) peuvent utiliser notre interface utilisateur à faible code pour accélérer les tâches de l'humain dans la boucle, tout en ayant la flexibilité nécessaire pour créer et gérer vos propres flux de travail personnalisés. Dans le cadre de l'offre gérée par AWS (SageMaker Ground Truth Plus), nous nous chargeons du gros du travail à votre place, notamment en sélectionnant et en gérant la main-d'œuvre adaptée à votre cas d'utilisation. SageMaker Ground Truth Plus conçoit et personnalise un flux de travail de bout en bout (y compris la formation détaillée du personnel et les étapes d'assurance qualité) et fournit une équipe qualifiée dirigée par AWS qui est formée aux tâches spécifiques et répond à vos exigences en matière de qualité, de sécurité et de conformité des données. 

Préparation des données

SageMaker Data Wrangler réduit le temps nécessaire pour regrouper et préparer des données pour le ML. À partir d'une interface unique dans SageMaker Studio, vous pouvez parcourir et importer des données depuis Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake et Databricks en quelques clics seulement. Vous pouvez également interroger et importer des données qui sont transférées à partir de plus de 50 sources de données et enregistrées dans le catalogue de données AWS Glue par Amazon AppFlow. SageMaker Data Wrangler chargera, agrégera et affichera automatiquement les données brutes. Après avoir importé vos données dans SageMaker Data Wrangler, vous pouvez voir des résumés de colonnes et des histogrammes générés automatiquement. Vous pouvez ensuite creuser davantage pour comprendre vos données et identifier les erreurs potentielles grâce au rapport SageMaker Data Wrangler Data Quality and Insights, qui fournit des statistiques récapitulatives et des avertissements sur la qualité des données. Vous pouvez également exécuter une analyse de biais prise en charge par SageMaker Clarify directement à partir de SageMaker Data Wrangler pour détecter les biais potentiels lors de la préparation des données. À partir de là, vous pouvez utiliser les transformations préétablies de SageMaker Data Wrangler pour préparer vos données. Une fois vos données préparées, vous pouvez créer des flux de ML entièrement automatisés avec Amazon SageMaker Pipelines, ou importer ces données dans Amazon SageMaker Feature Store.

SageMaker Data Wrangler prend en charge les données tabulaires, chronologiques et d'image, offrant plus de 300 transformations de données préconfigurées pour préparer ces différentes modalités de données. Pour les clients qui souhaitent préparer des données texte dans Data Wrangler pour des cas d'utilisation du NLP, Data Wrangler prend en charge la bibliothèque NLTK afin que les clients puissent préparer des données texte en créant leurs propres transformations personnalisées dans Data Wrangler.
SageMaker Data Wrangler propose une sélection de plus de 300 transformations de données prédéfinies basées sur PySpark afin que vous puissiez transformer vos données et adapter votre flux de travail de préparation des données sans écrire une seule ligne de code. En outre, vous pouvez transformer vos données en modèles ML à l'aide d'une interface en langage naturel optimisée par FM ou créer un extrait de code personnalisé à partir de la bibliothèque d'extraits de SageMaker Data Wrangler.
SageMaker Data Wrangler vous aide à comprendre vos données et identifier des erreurs potentielles et des valeurs extrêmes avec un ensemble de modèles de visualisation préconfigurés et robuste. Des histogrammes, des nuages de points et des visualisations spécifiques ML, telles que la détection de fuite de données, sont disponibles sans l'écriture de la moindre ligne de code. Vous pouvez également créer et modifier vos propres visualisations.

Les ressources de traitement de données, de stockage et de calcul ML que vous utilisez pour Amazon SageMaker Data Wrangler vous sont facturées. Des informations détaillées sur la tarification de SageMaker Data Wrangler sont disponibles ici. Dans le cadre de l'offre gratuite d'AWS, vous pouvez également commencer à utiliser SageMaker Data Wrangler gratuitement.

SageMaker Data Wrangler offre une expérience unifiée vous permettant de préparer les données et d'entraîner de manière transparente un modèle de machine learning dans SageMaker Canvas. SageMaker Canvas crée, entraîne et ajuste automatiquement les meilleurs modèles de ML en fonction de vos données. Avec vos modèles existants, vous pouvez également utiliser les fonctionnalités préparées dans SageMaker Data Wrangler. Vous pouvez configurer les tâches de traitement Amazon SageMaker Data Wrangler pour qu'elles s'exécutent dans le cadre de votre pipeline de formation SageMaker, soit en configurant la tâche dans l'interface utilisateur (IU), soit en exportant un bloc-notes avec le code d'orchestration.
Vous pouvez configurer et lancer des tâches de traitement SageMaker directement à partir de l'interface utilisateur de SageMaker Data Wrangler, notamment en programmant votre tâche de traitement de données et en paramétrant vos sources de données pour transformer facilement de nouveaux lots de données à l'échelle.
Une fois que vous avez préparé vos données, Amazon SageMaker Data Wrangler propose différentes options pour promouvoir votre flux SageMaker Data Wrangler en production et s'intègre parfaitement aux fonctionnalités MLOps et CI/CD. Vous pouvez configurer et lancer des tâches de traitement SageMaker directement à partir de l'interface utilisateur de SageMaker Data Wrangler, notamment en programmant votre tâche de traitement de données et en paramétrant vos sources de données pour transformer facilement de nouveaux lots de données à l'échelle. Sinon, SageMaker Data Wrangler s'intègre parfaitement au traitement SageMaker et au conteneur SageMaker Spark, ce qui vous permet d'utiliser facilement les SDK SageMaker pour intégrer SageMaker Data Wrangler dans votre flux de production.
En quelques étapes, Amazon SageMaker Data Wrangler divise et entraîne un modèle XGBoost avec des hyperparamètres par défaut. En fonction du type de problème, SageMaker Data Wrangler fournit un résumé du modèle, un résumé des fonctionnalités et une matrice de confusion pour vous donner rapidement un aperçu afin que vous puissiez itérer sur vos flux de préparation des données.
Amazon SageMaker Data Wrangler prend en charge diverses techniques d'échantillonnage, telles que l'échantillonnage top-K, aléatoire et stratifié pour l'importation de données, afin que vous puissiez rapidement transformer vos données à l'aide de l'interface utilisateur de SageMaker Data Wrangler. Si vous utilisez des jeux de données volumineux ou larges, vous pouvez augmenter la taille de l'instance de SageMaker Data Wrangler pour améliorer les performances. Une fois que vous avez créé votre flux, vous pouvez traiter votre jeu de données complet à l'aide des tâches de traitement SageMaker Data Wrangler.
Oui, vous pouvez configurer SageMaker Feature Store comme destination pour vos fonctionnalités préparées dans SageMaker Data Wrangler. Cela peut se faire directement dans l'interface utilisateur ou vous pouvez exporter un carnet de notes généré spécifiquement pour le traitement des données avec SageMaker Feature Store comme destination.

SageMaker Feature Store est une plateforme entièrement gérée et spécialement conçue pour stocker, partager et gérer les fonctionnalités des modèles de machine learning (ML). Les fonctionnalités peuvent être découvertes et partagées pour être facilement réutilisées entre les modèles et les équipes avec un accès et un contrôle sécurisés, y compris entre les comptes AWS. SageMaker Feature Store prend en charge les fonctionnalités en ligne et hors ligne pour l'inférence en temps réel, l'inférence par lots et l'entraînement. Il gère également les pipelines d'ingénierie des fonctionnalités par lots et en streaming afin de réduire la duplication lors de la création de fonctionnalités et d'améliorer la précision des modèles.

Les fonctionnalités hors ligne sont généralement de gros volumes de données historiques qui sont utilisées pour l'entraînement et l'inférence par lots. Les fonctionnalités hors ligne sont conservées dans un magasin d'objets à haute disponibilité et à haute durabilité.
Les fonctionnalités en ligne sont utilisées dans les applications afin d'effectuer des prédictions en temps réel. Les fonctionnalités en ligne sont diffusées à partir d'un magasin haut débit qui prend en charge une latence de l'ordre de la milliseconde (à un seul chiffre) pour garantir la rapidité des prédictions depuis les applications client.
SageMaker Feature Store maintient automatiquement la cohérence entre les fonctionnalités en ligne et hors ligne sans gestion ni code supplémentaire, afin d'assurer la cohérence entre les environnements d'entraînement et d'inférence.
SageMaker Feature Store conserve les horodatages de toutes les fonctionnalités et propose des méthodes intégrées qui vous permettent de récupérer les fonctionnalités à tout moment, pour des raisons commerciales ou de conformité. Au lieu d'écrire des requêtes SQL complexes ou une grande quantité de code, vous pouvez utiliser les méthodes intégrées pour le voyage dans le temps et les jointures précises ponctuelles pour générer des jeux de données à des fins d'entraînement et d'inférence par lots pour la période qui vous intéresse

Vous pouvez commencer à utiliser gratuitement le magasin de fonctionnalités Amazon SageMaker dans le cadre de l'offre gratuite d'AWS. Avec SageMaker Feature Store, vous payez pour l'écriture dans le stockage de fonctions, et la lecture et le stockage dans le stockage de fonctions en ligne. Pour consulter les informations de tarification, reportez-vous à la page Tarification Amazon SageMaker.

Amazon SageMaker propose deux offres en matière d'étiquetage des données : Amazon SageMaker Ground Truth Plus et Amazon SageMaker Ground Truth. Les deux options vous permettent d'identifier des données brutes, telles que des images, des fichiers texte et des vidéos, et d'ajouter des étiquettes informatives pour créer des jeux de données d'entraînement de haute qualité pour vos modèles ML. Pour en savoir plus, consultez la page Étiquetage des données Amazon SageMaker.

Les données géospatiales représentent des caractéristiques ou des objets à la surface de la terre. Le premier type de données géospatiales est constitué de données vectorielles qui utilisent des géométries bidimensionnelles telles que des points, des lignes ou des polygones pour représenter des objets tels que des routes et des frontières terrestres. Le deuxième type de données géospatiales est constitué de données matricielles telles que des images capturées par des satellites, des plateformes aériennes ou des données de télédétection. Ce type de données utilise une matrice de pixels pour définir l'emplacement des fonctionnalités. Vous pouvez utiliser les formats matriciels pour stocker des données qui varient. Un troisième type de données géospatiales est constitué par les données de localisation géolocalisées. Il peut s'agir de points d'intérêt (par exemple, la tour Eiffel), de messages de médias sociaux étiquetés, de coordonnées de latitude et de longitude ou de différents styles et formats d'adresses de rue.

Les fonctionnalités géospatiales de SageMaker facilitent la tâche des scientifiques des données et des ingénieurs en machine learning (ML) pour créer, entraîner et déployer des modèles ML permettant de faire des prédictions à l'aide de données géospatiales. Vous pouvez apporter vos propres données, comme les données satellitaires de Planet Labs à partir d'Amazon S3, ou acquérir des données à partir d'Open Data on AWS, d'Amazon Location Service et d'autres sources de données géospatiales Amazon SageMaker.

Vous pouvez utiliser les capacités du ML géospatial de SageMaker pour faire des prédictions sur les données géospatiales plus rapidement que les solutions que vous proposerez vous-même. Les fonctionnalités géospatiales de SageMaker facilitent l'accès aux données géospatiales à partir de vos lacs de données existants, de jeux de données open-source et d'autres sources de données géospatiales SageMaker. Les fonctionnalités géospatiales de SageMaker minimisent la nécessité de créer une infrastructure personnalisée et des fonctions de prétraitement des données en offrant des algorithmes spécialement conçus pour une préparation efficace des données, l'entraînement des modèles et l'inférence. Vous pouvez également créer et partager des visualisations et des données personnalisées avec votre entreprise à partir d'Amazon SageMaker Studio. Les fonctionnalités géospatiales d'Amazon SageMaker comprennent des modèles pré-entraînés pour des utilisations courantes dans les domaines de l'agriculture, de l'immobilier, des assurances et des services financiers.

Créer des modèles

Vous pouvez utiliser des blocs-notes Jupyter entièrement gérés dans SageMaker pour le développement complet du ML. Mettez à l'échelle les instances de calcul vers le haut et vers le bas grâce à la sélection d'instances optimisées pour le calcul et accélérées par GPU dans le cloud.

Les blocs-notes Amazon SageMaker Studio sont des blocs-notes Jupyter en un clic qui peuvent être démarrés rapidement. Les ressources de calcul sous-jacentes sont entièrement élastiques, de sorte que puissiez facilement composer les ressources disponibles ou les diminuer. Par ailleurs, les modifications ont lieu automatiquement en arrière-plan sans interrompre votre travail. SageMaker permet également le partage automatique des blocs-notes en un clic. Vous pouvez facilement partager des blocs-notes avec d'autres personnes, et elles recevront exactement le même bloc-notes, enregistré au même endroit.

Avec les blocs-notes SageMaker, vous pouvez vous connecter avec vos informations d'identification d'entreprise en utilisant AWS IAM Identity Center. Le partage de blocs-notes au sein des équipes et entre elles est facile, car les dépendances nécessaires à l'exécution d'un bloc-notes sont automatiquement suivies dans les images de travail qui sont encapsulées avec le bloc-notes lors de son partage.

Les blocs-notes dans les IDE SageMaker Studio offrent quelques fonctionnalités importantes qui les différencient des blocs-notes basés sur des instances. Tout d'abord, vous pouvez lancer rapidement des blocs-notes sans avoir à allouer manuellement une instance et à attendre qu'elle soit opérationnelle. Le temps de démarrage du lancement de l'interface utilisateur pour lire et exécuter un bloc-notes est plus rapide que celui des blocs-notes basés sur des instances. Vous avez également la possibilité de choisir à tout moment parmi un large ensemble de types d'instances dans l'interface utilisateur. Vous n'avez pas besoin d'accéder à la console de gestion AWS pour démarrer de nouvelles instances et transférer vos blocs-notes. Chaque utilisateur a un répertoire de base isolé indépendant d'une instance particulière. Ce répertoire est automatiquement monté dans tous les serveurs de blocs-notes et noyaux lorsqu'ils sont démarrés, afin que vous puissiez accéder à vos blocs-notes et aux autres fichiers, même lorsque vous changez d'instance pour afficher et exécuter vos blocs-notes. Les blocs-notes SageMaker Studio sont intégrés à AWS IAM Identity Center (successeur d'AWS SSO), ce qui facilite l'utilisation de vos informations d'identification d'organisation pour accéder aux blocs-notes. Ils sont également intégrés à des outils de ML spécialement conçus dans SageMaker et d'autres services AWS pour le développement complet de votre ML, de la préparation des données à l'échelle du pétaoctet à l'aide de Spark sur Amazon EMR, à l'entraînement et au débogage des modèles, au déploiement et à la surveillance des modèles et à la gestion des pipelines.
Les blocs-notes SageMaker intégrés aux IDE de Studio vous donnent accès à toutes les fonctionnalités de SageMaker, telles que la formation distribuée, la transformation par lots et l'hébergement. Vous pouvez également désormais accéder à d'autres services, comme les jeux de données dans Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR ou AWS Lake Formation à partir des blocs-notes SageMaker.

Les spécialistes de machine learning peuvent créer un espace de travail partagé où leurs coéquipiers peuvent lire et modifier ensemble les carnets Amazon SageMaker Studio. En utilisant les rythmes partagés, les coéquipiers peuvent coéditer le même fichier du bloc-notes, exécuter le code du bloc-notes simultanément et examiner les résultats ensemble afin d'éliminer les allers-retours et de rationaliser la collaboration. Dans les espaces partagés, les équipes ML bénéficieront d'une prise en charge intégrée de services tels que BitBucket et AWS CodeCommit, de sorte qu'elles pourront facilement gérer différentes versions de leur carnet de notes et comparer les modifications au fil du temps. Toutes les ressources créées à l'intérieur des blocs-notes, telles que les expériences et les modèles ML, sont automatiquement sauvegardées et associées à l'espace de travail spécifique où elles ont été créées, de sorte que les équipes peuvent plus facilement rester organisées et accélérer le développement des modèles ML.

Lorsque vous utilisez les blocs-notes SageMaker dans les IDE Studio, vous payez à la fois pour le calcul et le stockage. Pour connaître les frais applicables par type d'instance de calcul, consultez la page Tarification d'Amazon SageMaker. Vos blocs-notes et les artefacts associés, tels que les scripts et les fichiers de données, sont maintenus sur Amazon Elastic File System (Amazon EFS). Pour connaître les frais de stockage, consultez la page Tarification d'Amazon EFS. Dans le cadre de l'offre gratuite d'AWS, vous pouvez commencer à utiliser les blocs-notes SageMaker Studio gratuitement.

Non. Vous pouvez créer et exécuter plusieurs blocs-notes sur la même instance de calcul. Vous êtes facturé uniquement pour le calcul que vous utilisez, et non pas pour les éléments individuels. Pour en savoir plus à ce sujet, reportez-vous à notre guide de mesure.

En plus des blocs-notes, vous pouvez également démarrer et exécuter des terminaux et des shells interactifs dans SageMaker Studio, le tout sur la même instance de calcul. Chaque application s'exécute au sein d'un conteneur ou d'une image. SageMaker Studio fournit plusieurs images intégrées, spécialement conçues et préconfigurées pour la science des données et le ML.

Vous pouvez contrôler et arrêter les ressources utilisées par vos blocs-notes SageMaker Studio par le biais de l'interface visuelle de SageMaker Studio et de la console de gestion AWS. Consultez la documentation pour plus de détails.

Oui, vous continuerez d'être facturé pour le calcul. Cela fonctionne de la même manière que si vous lancez des instances Amazon EC2 dans la console de gestion AWS, puis fermez le navigateur. Les instances Amazon EC2 continuent de s'exécuter, et des frais vous sont donc facturés, à moins que vous arrêtiez explicitement ces instances.

Non, vous n'êtes pas facturé pour la création ou la configuration d'un domaine Amazon SageMaker Studio, y compris l'ajout, la mise à jour et la suppression de profils d'utilisateurs.

En tant qu'administrateur, vous pouvez afficher la liste des frais détaillés pour Amazon SageMaker, y compris SageMaker Studio, dans la console de facturation AWS. Dans la console de gestion AWS de SageMaker, choisissez Services dans le menu supérieur, saisissez « Facturation » dans la zone de recherche et sélectionnez Facturation dans le menu déroulant, puis Factures dans le volet de gauche. Dans la section Détails, vous pouvez cliquer sur SageMaker pour développer la liste des régions et voir les frais détaillés.

Amazon SageMaker Studio Lab est un environnement de développement de ML gratuit qui fournit des fonctions de calcul, de stockage (jusqu'à 15 Go) et de sécurité sans frais supplémentaires pour l'apprentissage et l'expérimentation ML. Pour commencer, vous avez simplement besoin d'une adresse e-mail valide. Nul besoin donc de configurer une infrastructure, de gérer des identités ni même de s'inscrire à un compte AWS ou d'en créer un. SageMaker Studio Lab accélère la création de modèles au moyen de l'intégration GitHub. Il est fourni avec les outils, cadres et bibliothèques ML les plus populaires pour vous permettre de démarrer immédiatement. SageMaker Studio Lab enregistre automatiquement votre travail pour vous éviter de recommencer à chaque session. Vous fermez votre ordinateur portable, vous reprenez votre session quand vous le souhaitez et vous voilà fin prêt !
Amazon SageMaker Studio Lab s'adresse aux étudiants, chercheurs et scientifiques des données à la recherche d'un environnement de développement de blocs-notes gratuit et ne nécessitant aucune configuration pour leurs cours et expériences de ML. SageMaker Studio Lab est idéal pour les utilisateurs qui n'ont pas besoin d'un environnement de production, mais qui veulent tout de même un sous-ensemble de la fonctionnalité SageMaker pour améliorer leurs compétences en ML. Les sessions SageMaker sont automatiquement enregistrées, ce qui permet aux utilisateurs de reprendre le travail là où ils l'avaient abandonné.
Amazon SageMaker Studio Lab est un service basé sur AWS qui utilise de nombreux services essentiels communs avec Amazon SageMaker Studio, comme Amazon S3 et Amazon EC2. Contrairement aux autres services, ce service ne nécessite pas que les clients aient un compte AWS. Au lieu de cela, ils créent un compte spécifique à Amazon SageMaker Studio Lab à l'aide d'une adresse e-mail. Les utilisateurs disposent alors d'un accès à un environnement limité (15 Go de stockage et 12 heures de sessions) qui leur permet d'exécuter des blocs-notes ML.

SageMaker Canvas vous permet de découvrir, en toute simplicité les sources de données AWS auxquelles votre compte a accès, notamment Amazon S3 et Amazon Redshift. Vous pouvez parcourir et importer des données à l'aide de l'interface visuelle de type glisser-déposer de SageMaker Canvas. Vous pouvez également faire glisser des fichiers à partir de votre disque local et utiliser des connecteurs prédéfinis pour importer des données depuis des sources tierces, telles que Snowflake.

Une fois que vous avez connecté des sources, sélectionné un jeu de données et préparé vos données, vous pouvez sélectionner la colonne cible pour laquelle vous souhaitez effectuer une prédiction afin de lancer la tâche de création de modèle. Amazon SageMaker Canvas identifiera automatiquement le type de problème, générera de nouvelles fonctionnalités pertinentes, testera un ensemble complet de modèles de prédiction à l'aide de techniques ML telles que la régression linéaire, la régression logistique, le deep learning, la prévision de séries chronologiques et le boosting de gradient, et construira le modèle qui effectue des prédictions précises sur la base de votre jeu de données.

Entraîner des modèles

SageMaker HyperPod est spécialement conçu pour accélérer l'entraînement du modèle de fondation (FM). Il fournit une infrastructure plus résiliente, optimisée pour l'entraînement distribué à grande échelle, vous permettant d'entraîner plus rapidement sur des milliers d'accélérateurs. Il détecte, diagnostique et répare automatiquement les défaillances, afin que vous puissiez entraîner les FM pendant des mois sans interruption. SageMaker HyperPod est préconfiguré avec les bibliothèques d'entraînement distribué SageMaker pour vous aider à améliorer efficacement les performances en distribuant les données d'entraînement des modèles en petits morceaux, afin qu'elles puissent être traitées en parallèle sur les accélérateurs.
Si vous avez besoin de charges de travail d'entraînement plus longues et plus importantes nécessitant un grand nombre d'instances de calcul telles que des GPU ou des accélérateurs AWS, vous pouvez utiliser SageMaker HyperPod pour une expérience plus résiliente et réduire le temps de formation.

Oui. Amazon SageMaker peut distribuer automatiquement les modèles de deep learning et les grands ensembles d'entraînement entre plusieurs instances GPU AWS en une fraction du temps nécessaire pour créer et optimiser manuellement ces stratégies de distribution. Les techniques d'entraînement distribué appliquées par SageMaker sont le parallélisme des données et le parallélisme des modèles. Le parallélisme des données est appliqué pour améliorer les vitesses d'entraînement en répartissant de manière égale les données sur plusieurs instances GPU, permettant ainsi à chaque instance d'entraîner simultanément. Le parallélisme des modèles s'avère utile pour les modèles trop importants pour être stockés sur un seul GPU et exige que le modèle soit partitionné en parties plus petites avant distribution sur plusieurs GPU. Rien qu'avec quelques lignes de code supplémentaires dans vos scripts d'entraînement PyTorch et TensorFlow, SageMaker appliquera automatiquement pour vous le parallélisme des données ou des modèles, ce qui vous permet de développer et de déployer vos modèles plus rapidement. SageMaker détermine également la meilleure approche pour diviser votre modèle en utilisant des algorithmes de partitionnement de graphiques pour équilibrer le calcul de chaque GPU tout en réduisant la communication entre les instances GPU. En outre, SageMaker optimise vos tâches d'entraînement distribuées grâce à des algorithmes qui utilisent intégralement le réseau et le calcul AWS afin d'obtenir une efficacité de mise à l'échelle quasi linéaire. Cela vous permet de terminer l'entraînement plus rapidement qu'avec des implémentations open source manuelles.

Amazon SageMaker Experiments vous permet d'organiser et de suivre les itérations sur les modèles ML. SageMaker Experiments vous permet de gérer les itérations en collectant automatiquement les paramètres d'entrée, les configuration et les résultats, puis en les stockant en tant qu'« expériences ». Vous pouvez créer une expérience Amazon SageMaker pour suivre vos flux de travail de ML à l'aide de quelques lignes de code issues de votre environnement de développement préféré. Vous pouvez également intégrer SageMaker Experiments dans votre script d'entraînement SageMaker à l'aide du SDK Python de SageMaker.
Amazon SageMaker Debugger collecte automatiquement les métriques en temps réel pendant l'entraînement, par exemple les matrices de confusion et les gradients d'apprentissage. Ces métriques permettent d'améliorer la précision du modèle. Les métriques issues d'Amazon SageMaker Debugger sont visualisables dans SageMaker Studio pour une compréhension aisée. SageMaker Debugger peut également générer des avertissements et des conseils de correction lorsque des problèmes d'entraînement sont détectés. En outre, SageMaker Debugger surveille et profile automatiquement les ressources système, telles que les CPU, les GPU, le réseau et la mémoire en temps réel et fournit des recommandations de ré-allocation de ces ressources. Cela vous permet d'utiliser vos ressources efficacement pendant l'entraînement et contribue à réduire les coûts et les ressources.
L'entraînement Spot géré avec Amazon SageMaker vous permet d'entraîner vos modèles ML à l'aide d'instances Spot Amazon EC2, tout en offrant jusqu'à 90 % de réduction sur les coûts d'entraînement de vos modèles.
Vous activez l'option d'entraînement Spot géré lors de la soumission de vos tâches d'entraînement, et vous spécifiez également le temps que vous souhaitez attendre pour la capacité Spot. Amazon SageMaker utilisera ensuite les instances Spot Amazon EC2 pour exécuter votre tâche, et gère la capacité Spot. Vous bénéficiez d'une visibilité totale du statut de votre tâche d'entraînement, à la fois en cours d'exécution et en attente de capacité.
L'entraînement Spot géré est idéal lorsque vous avez de la flexibilité dans vos exécutions d'entraînement et lorsque vous souhaitez réduire le coût de vos tâches d'entraînement. Avec l'entraînement Spot géré, vous pouvez avoir jusqu'à 90 % de réduction sur le coût d'entraînement de vos modèles ML.
Il utilise des instances Amazon EC2 Spot pour l'entraînement, qui peuvent être préemptées lorsque AWS a besoin de plus de capacité. En conséquence, les tâches d'entraînement Spot géré peuvent être exécutées par petits incréments à mesure que la capacité devient disponible. Les tâches d'entraînement ne doivent pas nécessairement être redémarrées à partir de zéro en cas d'interruption, car Amazon SageMaker peut les reprendre en utilisant le point de contrôle de modèle le plus récent. Les cadres intégrés et les algorithmes de reconnaissance d'images intégrés dont est équipé SageMaker permettent d'utiliser des points de contrôle réguliers. Vous pouvez activer des points de contrôle avec des modèles personnalisés.
Nous recommandons d'utiliser des points de contrôle régulier comme bonne pratique générale pour les tâches d'entraînement de longue durée. Cela empêche le redémarrage de vos tâches d'entraînement Spot géré si la capacité est préemptée. Lorsque vous activez les points de contrôle, Amazon SageMaker reprend vos tâches d'entraînement Spot géré à partir du dernier point de contrôle.
Une fois qu'une tâche d'entraînement Spot géré est terminée, vous pouvez voir les économies réalisées dans la console de gestion AWS et les calculer en tant que différence en pourcentage entre la durée d'exécution de la tâche d'entraînement et la durée facturée. Quel que soit le nombre d'interruptions de vos tâches d'entraînement Spot géré, vous n'êtes facturé qu'une fois pour la durée pendant laquelle les données ont été téléchargées.
Vous pouvez utiliser l'entraînement Spot géré avec toutes les instances prises en charge dans Amazon SageMaker.

L'entraînement Spot géré prend en charge toutes les régions où Amazon SageMaker est actuellement disponible.

Aucune limite ne s'applique à la taille du jeu de données que vous pouvez utiliser pour l'entraînement de modèles avec Amazon SageMaker.

Amazon SageMaker comprend des algorithmes intégrés pour la régression linéaire, la régression logistique, le partitionnement en k-moyennes, l'analyse de composants de principaux, les machines de factorisation, l'algorithme Neural Topic Model, l'allocation de Dirichlet latente, les arbres de décision à gradient amplifié, l'algorithme sequence2sequence, les prédictions de séries chronologiques, le groupe word2vec et la classification d'images. SageMaker fournit aussi des conteneurs Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-Learn, et Deep Graph Library optimisés. De plus, Amazon SageMaker prend en charge vos algorithmes de formation personnalisés fournis par le biais d'une image Docker conforme aux spécifications documentées.
La plupart des algorithmes ML exposent divers paramètres contrôlant la façon dont l'algorithme sous-jacent fonctionne. Ces paramètres sont généralement appelés hyperparamètres, et leurs valeurs affectent la qualité des modèles entraînés. Automatic Model Tuning consiste en la recherche d'hyperparamètres pour un algorithme pouvant assumer un modèle optimal.
Vous avez la possibilité d'exécuter le réglage de modèle automatique dans Amazon SageMaker avant tout autre algorithme à condition que cela soit techniquement faisable, notamment les algorithmes SageMaker intégrés, les réseaux de neurones approfondis ou encore les algorithmes arbitraires que vous importez dans SageMaker sous la forme d'images Docker.

Pas à l'heure actuelle. Vous profiterez des meilleures performances et expériences de réglage de modèle dans Amazon SageMaker.

Actuellement, l'algorithme de réglage des hyperparamètres est une mise en œuvre personnalisée de l'optimisation bayésienne. Il vise à optimiser une métrique d'objectif spécifique au client par l'intermédiaire d'un processus de réglage. Plus particulièrement, il vérifie les métriques d'objectifs de tâches d'entraînement terminées et s'appuie sur des connaissances pour en déduire la combinaison d'hyperparamètres appropriée pour la prochaine tâche d'entraînement.

Non. L'impact des hyperparamètres sur les performances d'un modèle dépend de divers facteurs, et il est difficile d'indiquer catégoriquement qu'un hyperparamètre est plus important que d'autres et qu'il doit par conséquent être ajusté. En ce qui concerne les algorithmes intégrés à Amazon SageMaker, nous déterminons si un hyperparamètre est ajustable ou non.

La durée d'une tâche de réglage d'hyperparamètres dépend de plusieurs facteurs, dont la taille des données, l'algorithme sous-jacent et les valeurs des hyperparamètres. De plus, les clients peuvent choisir le nombre de tâches d'entraînement simultanées et le nombre total de tâches d'entraînement. Tous ces choix affectent la durée potentielle d'une tâche d'ajustement d'hyperparamètre.

Pas à l'heure actuelle. Pour le moment, vous devez spécifier une seule métrique d'objectif afin d'optimiser ou de modifier votre code d'algorithme et émettre une nouvelle métrique, ce qui correspond à une moyenne pondérée entre deux métriques utiles ou plus. Après cela, vous lancez l'optimisation du processus de réglage pour cette métrique d'objectif.

Une tâche d'ajustement d'hyperparamètre ne coûte rien en soi. Vous serez facturé en fonction des tâches d'entraînement lancées par la tâche de réglage des hyperparamètres, selon la tarification de l'entraînement du modèle.

Amazon SageMaker Autopilot automatise tout dans un flux de ML typique (dont le prétraitement des fonctions, la sélection d'algorithmes et le réglage des hyperparamètres) tout en se concentrant spécifiquement sur les cas d'utilisation de classification et de régression. Le réglage de modèle automatique, en revanche, est conçu pour régler n'importe quel modèle, qu'il soit basé sur des algorithmes intégrés, des cadres de deep learning ou des conteneurs personnalisés. En échange de cette flexibilité, vous devez choisir manuellement l'algorithme spécifique, les hyperparamètres à régler et les plages de recherche correspondantes.

L'apprentissage par renforcement est une technique de ML qui permet à un agent d'apprendre à tâtonnement au sein d'un environnement interactif à l'aide de retours générés à la suite de ses propres actions et expériences.

Oui, vous pouvez former des modèles d'apprentissage à renforcement dans Amazon SageMaker en plus des modèles d'apprentissage supervisés et non supervisés.

L'apprentissage supervisé et l'apprentissage par renforcement utilisent tous deux le mappage entre l'entrée et la sortie. Cependant, l'apprentissage par renforcement privilégie l'usage de retours différés où les signaux de récompense sont optimisés pour assurer un but à long terme par le biais d'une séquence d'actions, au contraire de l'apprentissage supervisé où les retours fournis à l'agent consistent en un ensemble d'actions appropriées pour effectuer une tâche donnée.

L'objectif des méthodes d'apprentissage supervisé est de trouver la bonne réponse selon les schémas des données d'entraînement, tandis que l'objectif des méthodes d'apprentissage non supervisé est de trouver les similitudes et différences entre des points de données. Inversement, le but des techniques d'apprentissage par renforcement (RL) est d'apprendre comment atteindre un résultat espéré, même si la méthode pour y parvenir n'est pas évidente. Par conséquent, l'apprentissage par renforcement est plus adapté aux applications intelligentes où un agent est en mesure de prendre des décisions autonomes, par exemple la robotique, les véhicules autonomes, les systèmes CVC, les commandes industrielles et plus encore.

Amazon SageMaker RL prend en charge divers environnements pour l'entraînement de modèles RL. Vous pouvez utiliser les services AWS, comme AWS RoboMaker, les environnements open source ou les environnements personnalisés développés à l'aide d'interfaces Open AI Gym, ou des environnements de simulation commerciale, comme MATLAB et SimuLink.

Non, Amazon SageMaker RL dispose de boîtes à outils RL, comme Coach et Ray RLLib, qui proposent d'implémentations d'algorithmes d'agents RL, comme DQN, PPO, A3C et plus encore.

Oui, vous pouvez apporter vos propres bibliothèques et implémentations d'algorithmes RL dans des conteneurs Docker et exécuter ces bibliothèques et implémentations dans Amazon SageMaker RL.

Oui. Vous pouvez même sélectionner un cluster hétérogène où l'entraînement et les simulations peuvent s'exécuter sur une instance GPU et sur plusieurs instances CPU, respectivement.

Déployer des modèles

Après avoir créé et entraîné des modèles, Amazon SageMaker propose trois options de déploiement afin que vous puissiez commencer à faire des prédictions. L'inférence en temps réel convient aux charges de travail exigeant une latence de l'ordre de la milliseconde, des charges utiles allant jusqu'à 6 Mo et des temps de traitement allant jusqu'à 60 secondes. La transformation par lots est idéale pour les prédictions hors ligne sur de grands lots de données qui sont disponibles à l'avance. L'inférence asynchrone est conçue pour les charges de travail qui n'ont pas besoin d'une latence inférieure à une seconde, d'une taille de charge utile allant jusqu'à 1 Go et d'un temps de traitement allant jusqu'à 15 minutes. 

L'inférence asynchrone Amazon SageMaker met les requêtes entrantes en file d'attente, puis les traite de manière asynchrone. Cette option s'avère idéale pour les requêtes avec de grandes tailles de charges utiles et/ou de longs temps de traitement, et qui doivent être traitées à mesure qu'elles arrivent. Vous avez également la possibilité de configurer en option les paramètres de scalabilité automatique pour réduire le nombre d'instances à zéro lorsqu'elles ne traitent pas activement les requêtes, et ce afin de réduire les coûts.

Vous pouvez réduire à zéro le nombre d'instances du point de terminaison d'inférence asynchrone Amazon SageMaker afin d'économiser sur les coûts lorsque vous ne traitez pas activement des requêtes. Vous devez définir une politique de mise à l'échelle en fonction de la métrique personnalisée « ApproximateBacklogPerInstance » et régler la valeur « MinCapacity » sur zéro. Pour des instructions étape par étape, référez-vous à la section Mise à l'échelle automatique d'un point de terminaison asynchrone du guide du développeur. 

SageMaker Serverless Inference est une option de diffusion de modèles sans serveur sur mesure qui facilite le déploiement et la mise à l'échelle de modèles de machine learning. Les points de terminaison SageMaker Serverless Inference démarrent automatiquement les ressources de calcul et les mettent à l'échelle (scale-in ou scale-out) en fonction du trafic, rendant ainsi inutile la sélection du type d'instance, l'exécution de la capacité allouée ou la gestion de la mise à l'échelle. Vous pouvez éventuellement spécifier la mémoire requise pour votre point de terminaison d'inférence sans serveur. Vous ne payez que la durée d'exécution du code d'inférence et la quantité de données traitées, pas les périodes d'inactivité.

SageMaker Serverless Inference simplifie l'expérience de développement en rendant inutiles l'allocation initiale de capacité et la gestion des politiques de mise à l'échelle. SageMaker Serverless Inference peut passer instantanément de quelques dizaines à quelques milliers d'inférences en quelques secondes en fonction des modèles d'utilisation, ce qui en fait l'outil idéal pour les applications ML ayant un trafic intermittent ou imprévisible. Par exemple, un service de chatbot utilisé par une entreprise de traitement de la paie connaît une augmentation du nombre de demandes à la fin du mois, tandis que le trafic est intermittent le reste du mois. Approvisionner des instances pour le mois entier dans de tels scénarios n'est pas rentable, car vous finissez par payer pour les périodes d'inactivité. SageMaker Serverless Inference permet de traiter ces types de cas d'utilisation en mettant à votre disposition une solution de mise à l'échelle clé en main rapide et automatique, sans que vous ayez besoin de prévoir le trafic ou de gérer des politiques de mise à l'échelle. De plus, vous ne payez que le temps de calcul nécessaire pour exécuter votre code d'inférence (facturé en millisecondes) et le traitement des données, ce qui en fait une option rentable pour les charges de travail à trafic intermittent.
La simultanéité allouée vous permet de déployer des modèles sur des points de terminaison sans serveur avec des performances prévisibles et une capacité de mise à l'échelle élevée en maintenant vos points de terminaison au chaud pour un nombre spécifié de demandes simultanées.

Avec les points de terminaison sans serveur à la demande, si votre point de terminaison ne reçoit pas de trafic pendant un certain temps et qu'il reçoit soudainement de nouvelles demandes, il peut mettre un certain temps à mobiliser les ressources de calcul nécessaires au traitement des demandes. C'est ce qu'on appelle un démarrage à froid. Un démarrage à froid peut également se produire si vos demandes simultanées dépassent l'utilisation actuelle des demandes simultanées. Le temps de démarrage à froid dépend de la taille de votre modèle, du temps nécessaire pour télécharger votre modèle et du temps de démarrage de votre conteneur.

Pour réduire la variabilité de votre profil de latence, vous pouvez éventuellement activer la simultanéité allouée pour vos points de terminaison sans serveur. Grâce à la simultanéité allouée, vos points de terminaison sans serveur sont toujours prêts et peuvent répondre instantanément à des pics de trafic, sans aucun démarrage à froid.

Comme pour l’inférence sans serveur à la demande, lorsque la simultanéité provisionnée est activée, vous payez en fonction de la capacité de calcul utilisée pour traiter les demandes d'inférence, facturée à la milliseconde, et de la quantité de données traitées. Vous payez également pour l'utilisation de la simultanéité provisionnée, en fonction de la mémoire configurée, de la durée accordée et de la quantité de simultanéité activée. Pour en savoir plus, consultez la page Tarification Amazon SageMaker.

SageMaker vous aide à exécuter des shadow tests pour évaluer un nouveau modèle ML avant la mise en production en testant ses performances par rapport au modèle actuellement déployé. SageMaker déploie le nouveau modèle en mode fantôme à côté du modèle de production actuel et met en miroir une partie du trafic de production spécifiée par l'utilisateur vers le nouveau modèle. Il enregistre éventuellement les inférences du modèle pour une comparaison hors ligne. Il fournit également un tableau de bord en direct avec une comparaison des principales mesures de performance, telles que la latence et le taux d'erreur, entre le modèle de production et le modèle fantôme pour vous aider à décider si vous devez promouvoir le nouveau modèle en production.
SageMaker simplifie le processus de mise en place et de surveillance des variantes fantômes afin que vous puissiez évaluer les performances du nouveau modèle ML sur le trafic de production en direct. Avec SageMaker, vous n'avez plus besoin d'orchestrer l'infrastructure pour les tests parallèles. Il vous permet de contrôler les paramètres de test tels que le pourcentage de trafic renvoyé vers la variante fantôme et la durée du test. Par conséquent, vous pouvez commencer modestement et augmenter les demandes d'inférence au nouveau modèle après avoir pris confiance dans la performance du modèle. SageMaker crée un tableau de bord en direct affichant les différences de performance sur les principaux paramètres, afin que vous puissiez facilement comparer les performances des modèles pour évaluer comment le nouveau modèle diffère du modèle de production.

SageMaker Inference Recommender accélère la mise en production des modèles de machine learning en automatisant le comparatif des performances et en ajustant les performances des modèles entre les instances SageMaker ML. Vous pouvez désormais utiliser SageMaker Inference Recommender pour déployer votre modèle sur un point de terminaison qui fournit des performances optimales et réduit les coûts. Vous pouvez commencer à utiliser SageMaker Inference Recommender en quelques minutes tout en sélectionnant un type d'instance et recevoir, en quelques heures, des recommandations pour optimiser les configurations des points de terminaison, ce qui vous évite de longues semaines de tests et de réglages manuels. Avec SageMaker Inference Recommender, il n'y a pas de frais supplémentaires : vous payez uniquement les instances ML SageMaker utilisées au cours des tests de charges.

Il est conseillé d'utiliser SageMaker Inference Recommender pour obtenir des recommandations quant à la configuration de point de terminaison idéale à définir pour améliorer les performances et réduire les coûts. Auparavant, les scientifiques des données désireux de déployer leurs modèles devaient effectuer des comparaisons manuelles pour sélectionner la configuration optimale. Ils devaient d'abord choisir le type d'instance de machine learning adéquat parmi plus de 70 types disponibles en fonction des besoins en ressources de leurs modèles et d'exemples de charges utiles, puis optimiser les modèles pour tenir compte des différents dispositifs matériels. Ensuite, ils devaient mener des tests de charge complets pour valider le respect des exigences en termes de latence et de débit, et s'assurer que les coûts étaient faibles. SageMaker Inference Recommender simplifie considérablement les choses en vous permettant : 1) de commencer à travailler en l'espace de quelques minutes avec une recommandation d'instance ; 2) de mener des tests de charge sur les différents types d'instance afin d'obtenir des recommandations sur la configuration de votre point de terminaison en l'espace de quelques heures ; 3) de régler automatiquement les paramètres du serveur de modèles et de conteneurs, et d'effectuer des optimisations de modèle pour un type d'instance donné.
Les scientifiques des données peuvent accéder à SageMaker Inference Recommender à partir de SageMaker Studio, d'AWS SDK pour Python (Boto3) ou d'AWS CLI. Ils peuvent obtenir des recommandations de déploiement dans SageMaker Studio dans le registre de modèles SageMaker pour les versions enregistrées du modèle. Ils peuvent également rechercher les recommandations et les filtrer par le biais de SageMaker Studio, d'AWS SDK ou d'AWS CLI.

Non, pour le moment, un seul modèle est pris en charge par point de terminaison.

Pour le moment, nous ne prenons en charge que les points de terminaison en temps réel.

Lors du lancement, nous prendrons en charge toutes les régions prises en charge par Amazon SageMaker, à l'exception des régions AWS de Chine.

Oui, nous prenons en charge tous les types de conteneurs. Amazon EC2 Inf1, basé sur la puce AWS Inferentia, nécessite un artefact de modèle compilé à l'aide du compilateur Neuron ou d'Amazon SageMaker Neo. Une fois que vous disposez d'un modèle compilé pour une cible Inferentia et l'URI d'image de conteneur associée, vous pouvez utiliser SageMaker Inference Recommender pour évaluer différents types d'instances Inferentia.

Amazon SageMaker Model Monitor permet aux développeurs de détecter et de corriger les dérives de concept. SageMaker Model Monitor détecte automatiquement les dérives de concept dans les modèles déployés et fournit des alertes détaillées qui aident à identifier la source du problème. Tous les modèles entraînés dans SageMaker émettent automatiquement des métriques clés qui peuvent être collectées et visualisées dans SageMaker Studio. À partir de SageMaker Studio, vous pouvez configurer les données à collecter, les modalités de visualisation et quand vous souhaitez recevoir des alertes.

AWS SageMaker gère l'infrastructure de calcul à votre place, lui permettant d'effectuer des vérifications de l'état de santé, d'appliquer des correctifs de sécurité et de réaliser d'autres opérations de maintenance quotidienne. Vous pouvez également déployer les artefacts de modèle de la formation avec un code d'inférence personnalisé dans votre propre environnement d'hébergement.

L'hébergement d'Amazon SageMaker s'adapte automatiquement aux performances nécessaires à votre application à l'aide de la scalabilité automatique des applications. En outre, vous pouvez modifier manuellement le nombre et le type d'instances tout en évitant les temps d'arrêt, en modifiant la configuration des points de terminaison.

Amazon SageMaker émet des métriques de performances dans Amazon CloudWatch Metrics pour vous permettre de suivre les métriques, de définir des alarmes et de réagir automatiquement aux fluctuations du trafic de production. De plus, Amazon SageMaker écrit des journaux dans Amazon CloudWatch Logs pour que vous puissiez surveiller et dépanner votre environnement de production.

Amazon SageMaker peut héberger tous les modèles conformes aux spécifications documentées pour les images d'inférence Docker. Cela inclut les modèles créés à partir des artefacts de modèles et du code d'inférence Amazon SageMaker.

Le service Amazon SageMaker est conçu pour s'adapter à un grand nombre de transactions par seconde. Le nombre précis varie en fonction du modèle déployé et du nombre et du type d'instances sur lesquelles le modèle est déployé.

En tant que service entièrement géré, Amazon SageMaker se charge de la configuration et de la gestion des instances, de la compatibilité des versions logicielles et de l'application de correctifs aux versions. Il fournit également des métriques et des journaux intégrés pour les points de terminaison que vous pouvez utiliser pour surveiller et recevoir des alertes. Grâce aux outils et aux flux de travail guidés de SageMaker, l'ensemble du processus de packaging et de déploiement du modèle ML est simplifié, ce qui facilite l'optimisation des points de terminaison pour atteindre les performances souhaitées et réduire les coûts. Vous pouvez facilement déployer vos modèles ML, y compris les modèles de fondation, en quelques clics dans SageMaker Studio ou à l'aide du nouveau PySDK.

Batch Transform vous permet d'exécuter des prédictions sur des lots de données de grande ou de petite taille. Il n'est pas nécessaire de fragmenter le jeu de données ni de gérer les points de terminaison en temps réel. Avec une API simple, vous pouvez demander des prédictions pour un grand nombre d'enregistrements de données et transformer ces données rapidement et facilement.

SageMaker prend en charge les options de point de terminaison suivantes : points de terminaison à modèle unique – un modèle sur un conteneur hébergé sur des instances dédiées ou sans serveur pour une faible latence et un débit élevé. Points de terminaison multimodèle : hébergez plusieurs modèles à l'aide d'une infrastructure partagée pour une rentabilité et une utilisation maximale. Vous pouvez contrôler la quantité de calcul et de mémoire que chaque modèle peut utiliser pour vous assurer que chaque modèle a accès aux ressources dont il a besoin pour fonctionner efficacement. Pipelines d'inférence en série – plusieurs conteneurs partageant des instances dédiées et s'exécutant en séquence. Vous pouvez utiliser un pipeline d'inférence pour combiner des tâches de science des données de prétraitement, de prédiction et de post-traitement.

Pour commencer avec SageMaker Edge Manager, vous devez compiler et créer des packages avec vos modèles ML entraînés dans le cloud, enregistrer vos appareils et les préparer avec le kit SDK SageMaker Edge Manager. Pour préparer votre modèle au déploiement, SageMaker Edge Manager utilise SageMaker Neo pour le compiler pour votre matériel périphérique cible. Une fois un modèle compilé, SageMaker Edge Manager le signe avec une clé générée par AWS, puis crée un package du modèle avec son exécution et vos informations d'identification nécessaires afin de préparer son déploiement. Du côté de l'appareil, vous enregistrez votre appareil sur SageMaker Edge Manager, téléchargez le kit SDK SageMaker Edge Manager, puis suivez les instructions pour installer l'agent SageMaker Edge Manager sur vos appareils. Le bloc-notes du didacticiel présente un exemple étape par étape de la préparation des modèles et de leur connexion sur les appareils en périphérie avec SageMaker Edge Manager.

Vous pouvez utiliser des stratégies de mise à l'échelle pour mettre automatiquement à l'échelle les ressources de calcul sous-jacentes afin de tenir compte des fluctuations des demandes d'inférence. Vous pouvez contrôler les stratégies de mise à l'échelle pour chaque modèle de machine learning séparément afin de gérer facilement les changements d'utilisation du modèle, tout en optimisant les coûts d'infrastructure.

Amazon SageMaker Edge Manager prend en charge les appareils à CPU (ARM, x86) et GPU (ARM, Nvidia) courants avec les systèmes d'exploitation Linux et Windows. Avec le temps, SageMaker Edge Manager se développera pour prendre en charge d'autres processeurs incorporés et plateformes mobiles qui sont également pris en charge par SageMaker Neo.

Amazon SageMaker Edge Manager est une fonctionnalité qui facilite l'optimisation, la sécurisation, la surveillance et la maintenance des modèles ML sur les flottes d'appareils en périphérie, tels que les caméras intelligentes, les robots, les ordinateurs personnels et les appareils mobiles. SageMaker Edge Manager aide les développeurs ML à utiliser leurs modèles ML sur différents appareils en périphérie à grande échelle.

Amazon SageMaker Edge Manager stocke le package du modèle dans le compartiment Amazon S3 que vous spécifiez. Vous pouvez utiliser la fonction de déploiement OTA (par voie hertzienne) offerte par AWS IoT Greengrass ou tout autre mécanisme de déploiement de votre choix pour déployer le package du modèle sur les appareils à partir de votre compartiment S3.

Non. Vous pouvez entraîner vos modèles ailleurs ou utiliser un modèle pré-entraîné en open source ou par votre fournisseur de modèles.

Oui. Amazon SageMaker Neo convertit et compile vos modèles en un exécutable que vous pouvez ensuite mettre en package et déployer sur vos appareils en périphérie. Une fois le package du modèle déployé, l'agent Amazon SageMaker Edge Manager décompresse le package du modèle et exécute le modèle sur l'appareil.

Neo dlr est une exécution open source qui exécute uniquement les modèles compilés par le service Amazon SageMaker Neo. Comparé au dlr open source, le kit SDK SageMaker Edge Manager comprend un agent professionnel sur l'appareil avec des fonctions supplémentaires de sécurité, ainsi que de gestion et de diffusion de modèles. Le kit SDK SageMaker Edge Manager est adapté au déploiement en production à grande échelle.

Pour démarrer avec Amazon SageMaker Neo, vous devez vous connecter à la console Amazon SageMaker, choisir un modèle formé, suivre l'exemple de compilation de modèles, puis déployer le modèle ainsi obtenu sur votre plateforme matérielle cible.

Amazon SageMaker Edge Manager est disponible dans les six régions AWS suivantes : USA Est (Virginie du Nord), USA Est (Ohio), USA Ouest (Oregon), EU (Irlande), EU (Francfort) et Asie-Pacifique (Tokyo). Consultez la liste des services régionaux AWS pour plus de détails.

Amazon SageMaker Neo comprend deux composants majeurs : un compilateur et une exécution. Pour commencer, le compilateur Neo lit les modèles exportés par différents cadres. Il convertit alors les fonctions et opérations spécifiques au cadre en une représentation intermédiaire agnostique de cadre. Ensuite, il effectue une série d'optimisations. Puis, le compilateur génère du code binaire pour les opérations optimisées et les écrit dans la bibliothèque d'objets partagés. Le compilateur enregistre également la définition et les paramètres du modèle dans des fichiers séparés. Lors de l'exécution, l'exécution Neo charge les artefacts créés par le compilateur (définition de modèle, paramètres et bibliothèque d'objets partagés) pour exécuter le modèle.

Amazon SageMaker Neo permet aux modèles ML d'être entraînés une fois, puis d'être exécutés n'importe où dans le cloud et en périphérie. SageMaker Neo optimise automatiquement les modèles créés avec les cadres de deep learning courants qui peuvent être utilisés pour un déploiement sur plusieurs plateformes matérielles. Les modèles optimisés s'exécutent 25 fois plus vite et consomment moins d'un dixième des ressources des modèles ML types.

Non. Vous pouvez former des modèles ailleurs et utiliser Neo afin de les optimiser pour des instances Amazon SageMaker ML ou des appareils AWS IoT Greengrass pris en charge.

SageMaker Neo prend actuellement en charge les modèles les plus populaires de deep learning pour les applications de vision par ordinateur et les modèles d'arbre décisionnel utilisés aujourd'hui dans Amazon SageMaker. Neo optimise le fonctionnement des modèles AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet et DenseNet entraînés dans MXNet et TensorFlow, et les modèles de classification et RCF (Random Cut Forest) entraînés dans XGBoost.

Vous trouverez les listes des instances cloud prises en charge, des appareils en périphérie et des versions de cadres dans la documentation d'Amazon SageMaker Neo.

Pour voir la liste des régions prises en charge, consultez la liste des services régionaux AWS.

Amazon SageMaker Savings Plans

SageMaker Savings Plans est un modèle de tarification flexible pour Amazon SageMaker, en échange d'un engagement à une quantité constante d'utilisation (mesurée en USD/heure) pendant 1 ou 3 ans. Amazon SageMaker Savings Plans offre la plus grande flexibilité, et jusqu'à 64 % de réduction sur vos coûts. Ces plans s'appliquent automatiquement à l'utilisation des instances ML SageMaker éligibles, comme les blocs-notes SageMaker Studio, les blocs-notes SageMaker à la demande, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference et SageMaker Batch Transform, indépendamment de la famille et de la taille d'instance ou de la région. Par exemple, vous pouvez à tout moment passer d'une instance de processeur ml.c5.xlarge s'exécutant dans la région USA Est (Ohio) à une instance ml.Inf1 s'exécutant dans la région USA Ouest (Oregon) pour des charges de travail d'inférence, et toujours bénéficier automatiquement de la tarification Savings Plans.

Si votre consommation d'instances Amazon SageMaker (mesurée en USD/heure) est régulière et que vous utilisez plusieurs composants SageMaker ou que vous prévoyez une évolution de la configuration technologique (par exemple la famille d'instance ou la région) au fil du temps, SageMaker Savings Plans est très économique et offre une grande flexibilité pour modifier la configuration technologique sous-jacente en fonction des besoins des applications ou des innovations. La tarification Savings Plans s'applique automatiquement à l'utilisation de toutes les instances ML éligibles, sans intervention manuelle de votre part.

Vous pouvez faire vos premiers pas avec les Savings Plans à partir de l'explorateur de coûts AWS dans la console de gestion AWS ou en utilisant l'API/la CLI. Vous pouvez aisément souscrire un engagement Savings Plans, et réaliser un maximum d'économies en suivant les recommandations disponibles dans AWS Cost Explorer. L'engagement horaire recommandé est basé sur votre historique d'utilisation à la demande et vos choix de type de plan, de période d'engagement et d'options de paiement. Une fois que vous avez souscrit à des Savings Plans, le tarif réduit correspondant sera automatiquement appliqué pour toute utilisation de capacités de calcul jusqu'au plafond prévu. Toute utilisation au-delà de ce plafond sera facturée aux tarifs à la demande standard.

La difference entre les Savings Plans for SageMaker et les Savings Plans for Amazon EC2 est dans le service qu'ils incluent. SageMaker Savings Plans s'applique uniquement à l'utilisation des instances ML SageMaker.

Il est possible d'acheter Savings Plans dans n'importe quel compte d'une famille AWS Organizations/de facturation consolidée. Par défaut, les avantages des Savings Plans s'appliquent à l'utilisation sur tous les comptes d'une famille AWS Organizations/de facturation consolidée. Toutefois, vous pouvez également limiter les avantages des Savings Plans au compte qui a été utilisé pour en faire l'acquisition.