Questions d'ordre général

Q : Qu'est-ce qu'Amazon SageMaker ?

Amazon SageMaker est un service entièrement géré permettant aux développeurs et aux spécialistes des données de créer, former et déployer rapidement et facilement des modèles de machine learning. SageMaker facilite chaque étape du processus de machine learning afin de rendre plus aisé le développement de modèles de haute qualité.

Q : Dans quelles régions le service Amazon SageMaker est-il disponible ?

Pour obtenir la liste des régions AWS prenant en charge Amazon SageMaker, veuillez consulter le Tableau des régions AWS de toute l'infrastructure mondiale AWS. Pour en savoir plus, consultez la section Régions et points de terminaison du document Références générales AWS.

Q : Quelle est la disponibilité du service Amazon SageMaker ?

Le service Amazon SageMaker est conçu pour offrir une haute disponibilité. Il n'y a ni fenêtres de maintenance ni arrêts programmés. Les API SageMaker fonctionnent dans les centres de données fiables et hautement disponibles Amazon. En outre, elles offrent une réplication de piles de service configurée dans trois installations au sein de chaque région AWS, afin d'assurer une tolérance aux pannes en cas de dysfonctionnement du serveur ou au niveau de la zone de disponibilité.

Q : Quelles mesures de sécurité sont intégrées au service Amazon SageMaker ?

Amazon SageMaker garantit que les artefacts de modèles d'apprentissage automatique et d'autres artefacts du système sont chiffrés en transit et au repos. Les requêtes sont envoyées à l'API et à la console SageMaker par le biais d'une connexion sécurisée (SSL). Vous transmettez des rôles AWS Identity and Access Management à SageMaker pour accorder des autorisations d'accès aux ressources en votre nom pour la formation et le déploiement. Vous pouvez utiliser des compartiments S3 chiffrés pour les artefacts de modèles et les données, ainsi que pour transmettre une clé KMS à des blocs-notes, des tâches de formation et des points de terminaison SageMaker. L'objectif, ici, est de chiffrer le volume de stockage de machine learning attaché.

Q : Comment le service Amazon SageMaker sécurise-t-il mon code ?

Amazon SageMaker stocke votre code dans des volumes de stockage de machine learning, sécurisés par des groupes de sécurité et éventuellement chiffrés au repos.

Q : Comment Amazon SageMaker m'est-il facturé ?

Vous payez les ressources de calcul, de stockage et de traitement des données d'apprentissage automatique que vous utilisez pour héberger le bloc-notes, former le modèle, réaliser des prédictions et journaliser les sorties. Amazon SageMaker vous permet de sélectionner le nombre et le type d'instances utilisées pour le bloc-notes hébergé, la formation et l'hébergement du modèle. Vous payez uniquement ce que vous utilisez, en fonction de votre consommation ; il n'y a pas de frais minimum et aucun engagement initial n'est requis. Pour en savoir plus, consultez la page relative à la tarification d'Amazon SageMaker.

Q : Et si je possède mon propre bloc-notes, ma propre formation ou mon propre environnement d'hébergement ?

Amazon SageMaker fournit un flux de travail complet de bout en bout, mais vous pouvez à utiliser vos outils existants avec le service. Vous pouvez facilement transférer les résultats de chaque étape vers et depuis SageMaker en fonction de vos besoins métier.

Q : R est-il pris en charge par Amazon SageMaker ?

Oui, R est pris en charge par Amazon SageMaker. Vous pouvez utiliser R dans les instances SageMaker Notebook, qui incluent un noyau R pré-installé et la bibliothèque réticulaire. Le réticulaire offre une interface R pour le kit SDK Python d'Amazon SageMaker, ce qui permet aux praticiens du machine learning de créer, entraîner, ajuster et déployer des modèles R. 

Q : Qu'est-ce qu'Amazon SageMaker Studio ?

Amazon SageMaker Studio fournit une interface visuelle unique, basée sur le Web, qui vous permet de mettre en œuvre toutes les étapes du développement de machine learning. Grâce à SageMaker Studio, vous avez un accès, un contrôle et une visibilité complets sur chaque étape nécessaire à la création, la formation et le déploiement de modèles. Vous pouvez téléverser des données, créer de nouveaux notebooks, former et régler des modèles, faire des aller-retours entre les étapes pour ajuster les expériences, comparer les résultats et déployer les modèles en production. Le tout rapidement et au même endroit, ce qui augmente votre productivité. Toutes les activités de développement de machine learning peuvent être réalisées à l’intérieur de l’interface visuelle unifiée de SageMaker Studio, notamment les notebooks, la gestion d’expériences, la création automatique de modèles, le débogage et le profilage, et la détection de dérive des modèles.

Q. Qu’est-ce qu’Amazon SageMaker Autopilot ?

Amazon SageMaker Autopilot est la première solution de machine learning automatisé du secteur qui vous offre un contrôle et une visibilité complets sur vos modèles de machine learning. SageMaker Autopilot inspecte automatiquement les données brutes, applique les processeurs de caractéristiques, sélectionne la meilleure combinaison d’algorithmes, forme et règle de multiples modèles, suit leurs performances et classe les modèles selon leur performance, le tout en quelques clics. Le résultat : le modèle le plus performant qui puisse être déployé, en un temps infiniment plus court que celui normalement requis pour former le modèle. Vous avez une visibilité complète sur le processus de création du modèle et sur son contenu, et SageMaker Autopilot s’intègre dans Amazon SageMaker Studio. Vous pouvez explorer jusqu’à 50 modèles différents, générés par SageMaker Autopilot dans Amazon SageMaker Studio. Il est donc facile de choisir le modèle qui convient le mieux à votre utilisation. SageMaker Autopilot peut être utilisé sans expérience particulière en matière de machine learning pour produire un modèle en toute simplicité. Il peut également être utilisé par des développeurs expérimentés pour développer rapidement un modèle qui servira de base de travail à leurs équipes.

Q : En quoi Amazon SageMaker Autopilot est-il différent des services d’IA verticale comme Amazon Personalize et Amazon Forecast ?

Tandis qu’Amazon Personalize et Amazon Forecast ciblent précisément les recommandations personnalisées et la prévision des cas d’utilisation, Amazon SageMaker Autopilot est une solution de machine learning automatique générique pour les problèmes de régression et de classification, comme la détection des fraudes, l’analyse des pertes, et le marketing ciblé. Personalize et Forecast se concentrent sur la simplification de l’expérience de bout en bout en offrant formation et hébergement de modèle dans un lot. Vous pouvez former des modèles en utilisant Amazon SageMaker Autopilot et obtenir un accès complet aux modèles ainsi qu’aux pipelines qui ont généré les modèles. Ils peuvent ensuite déployer les modèles sur l’environnement d’hébergement de leur choix, ou continuer pour améliorer la qualité du modèle.

Q : Quels algorithmes intégrés sont pris en charge dans Amazon SageMaker Autopilot ?

Amazon SageMaker Autopilot prend en charge 2 algorithmes intégrés au lancement : XGBoost et Linear Learner.

Q : Amazon SageMaker Autopilot prend-il en charge la formation distribuée ?

Oui. Tous les algorithmes Amazon SageMaker Autopilot intégrés prennent en charge une formation distribuée prête à l’emploi.

Q : Puis-je arrêter manuellement une tâche Amazon SageMaker Autopilot ?

Oui. Vous pouvez arrêter une tâche à tout moment. Lorsqu’une tâche Amazon SageMaker Autopilot est arrêtée, toutes les évaluations en cours sont interrompues et aucune nouvelle évaluation ne sera demarrée.

Développer des modèles

Q : Que sont les blocs-notes Amazon SageMaker Studio ?

Amazon SageMaker Studio Notebook est une nouvelle expérience de blocs-notes Jupyter collaborative, flexible et gérée qui fait partie d'Amazon SageMaker Studio, un environnement de développement entièrement intégré pour le machine learning.

Q : En quoi les blocs-notes SageMaker Studio sont-ils différents des blocs-notes basés sur des instances ?

Les blocs-notes SageMaker Studio offrent quelques fonctionnalités importantes qui les différencient des blocs-notes basés sur des instances. Grâce à la nouvelle expérience de blocs-notes, vous pouvez désormais lancer rapidement des blocs-notes sans avoir à allouer manuellement une instance et attendre qu'elle soit opérationnelle. Le temps de démarrage du lancement de l'interface utilisateur pour lire et exécuter un bloc-notes est plus rapide que celui des blocs-notes basés sur une instance.

Vous avez également la possibilité de choisir à tout moment parmi un large ensemble de types d'instances dans l'interface utilisateur. Vous n'aurez plus besoin d'accéder à la console AWS pour démarrer de nouvelles instances et transférer vos notes.

Chaque utilisateur a un répertoire de départ isolé indépendant d'une instance particulière. Ce répertoire est automatiquement monté dans tous les serveurs et noyaux de blocs-notes au démarrage, de sorte que vous pouvez accéder à vos blocs-notes et autres fichiers, même lorsque vous changez d'instance pour visualiser et exécuter vos blocs-notes.

Les blocs-notes SageMaker Studio sont intégrés à AWS SSO, ce qui facilite l'utilisation de vos informations d'identification d'organisation pour accéder aux blocs-notes. Le partage de blocs-notes est une fonctionnalité intégrée aux blocs-notes SageMaker Studio. Vous pouvez également partager vos blocs-notes avec vos pairs en un seul clic.

Q : Quels types de blocs-notes sont pris en charge ?

Les blocs-notes Jupyter sont actuellement pris en charge.

Q : Comment fonctionnent les blocs-notes Amazon SageMaker Studio ?

Les blocs-notes Amazon SageMaker Studio sont des blocs-notes Jupyter en un clic qui peuvent être démarrés rapidement. Les ressources de calcul sous-jacentes sont entièrement élastiques, vous pouvez donc facilement composer les ressources disponibles ou les diminuer, et les modifications ont lieu automatiquement en arrière-plan sans interrompre votre travail. SageMaker permet également le partage automatique des blocs-notes en un clic. Vous pouvez facilement partager des blocs-notes avec d'autres personnes, et elles recevront exactement le même bloc-notes, enregistré au même endroit.

Avec les blocs-notes SageMaker, vous pouvez vous connecter avec vos identifiants d'entreprise en utilisant AWS SSO. Le partage de blocs-notes au sein des équipes et entre elles est facile, car les dépendances nécessaires à l'exécution d'un bloc-notes sont automatiquement suivies dans les images de travail qui sont encapsulées avec le bloc-notes lors de son partage.

Q : Comment fonctionnent les blocs-notes Amazon SageMaker Studio avec d’autres services AWS ?

Les blocs-notes Amazon SageMaker Studio vous donnent accès à toutes les fonctionnalités SageMaker, comme un entraînement distribué, la transformation par lot, l’hébergement et la gestion d’expérimentations. Vous pouvez désormais accéder à d’autres services comme des ensembles de données dans Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR, ou AWS Lake Formation à partir des blocs-notes SageMaker.

Q. Qu’est-ce que Amazon SageMaker Ground Truth ?

Amazon SageMaker Ground Truth fournit l’étiquetage de données automatique à l’aide du machine learning. SageMaker Ground Truth sélectionnera d’abord un échantillon aléatoire de données et l’enverra Amazon Mechanical Turk pour qu’il soit étiqueté. Les résultats sont ensuite utilisés pour former un modèle d'étiquetage qui tente d'étiqueter automatiquement un nouvel échantillon de données brutes. Les étiquettes sont validées lorsque le modèle peut étiqueter les données avec un score de confiance égal ou supérieur au seuil que vous avez défini. Lorsque le score de confiance tombe en dessous de votre seuil, les données sont envoyées aux étiqueteurs humains. Certaines des données étiquetées par les humains sont utilisées pour générer un nouvel ensemble de données de formation pour le modèle d'étiquetage. Le modèle est automatiquement reformé pour améliorer sa précision. Ce processus se répète avec chaque échantillon de données brutes à étiqueter. Le modèle d'étiquetage devient de plus en plus capable d'étiqueter automatiquement les données brutes à chaque itération, et moins de données sont ainsi acheminées vers les humains.

Former des modèles

Q. Qu’est-ce qu’Amazon SageMaker Experiments ?

Amazon SageMaker Experiments vous permet d’organiser et de suivre les itérations sur les modèles de machine learning. SageMaker Experiments vous permet de gérer les itérations en capturant automatiquement les paramètres d’entrée, les configuration et les résultats, puis en les stockant en tant qu’« expériences ». Vous pouvez travailler dans l’interface visuelle de SageMaker Studio, où vous pouvez parcourir les expériences actives, rechercher les expériences précédentes à l’aide de leurs caractéristiques, évaluer les expériences précédentes avec leurs résultats et établir des comparaisons visuelles entre les expériences.

Q. Amazon SageMaker Debugger ?

Amazon SageMaker Debugger rend le processus de formation plus transparent, en prenant des mesures automatiquement et en temps réel au cours de la formation : formation et validation, matrices de confusion et gradients d’apprentissage. Ces mesures permettent d’améliorer la précision du modèle.

Les mesures prises par SageMaker Debugger peuvent être visualisées dans Amazon SageMaker Studio, afin de faciliter leur compréhension. SageMaker Debugger peut également générer des avertissements et des conseils de correction lorsque des problèmes de formation sont détectés. Grâce à SageMaker Debugger, vous pouvez interpréter la manière dont un modèle fonctionne, ce qui représente un premier pas vers l’explicabilité du modèle.

Q : Qu'est-ce que la formation Spot gérée ?

La formation Spot gérée avec Amazon SageMaker vous permet de former vos modèles de machine learning à l'aide d'instances Spot Amazon EC2, tout en réduisant les coûts de formation de vos modèles jusqu'à 90 %.

Q : Comment utiliser la formation Spot gérée ?

Vous activez l'option de formation Spot gérée lors de la soumission de vos tâches de formation, et vous spécifiez également le temps que vous souhaitez attendre pour la capacité Spot. Amazon SageMaker utilisera ensuite les instances Amazon EC2 Spot pour exécuter votre tâche, et gère la capacité Spot. Vous bénéficiez d'une visibilité totale sur le statut de votre tâche de formation, à la fois en cours d'exécution et en attente de capacité.

Q : Quand utiliser la formation Spot gérée ?

La formation Spot gérée est idéale lorsque vous avez une flexibilité dans vos sessions de formation et lorsque vous souhaitez minimiser le coût de vos tâches de formation. Avec l'entraînement Spot géré, vous pouvez réduire le coût d'entraînement de vos modèles de machine learning jusqu'à 90 %.

Q : Comment fonctionne l'entraînement Spot géré ?

Il utilise des instances Amazon EC2 Spot pour l'entraînement, qui peuvent être préemptées lorsque AWS a besoin de plus de capacité. En conséquence, les tâches de formation Spot gérée peuvent être exécutées par petites incréments à mesure que la capacité devient disponible. Les tâches de formation ne doivent pas nécessairement être redémarrées à partir de zéro en cas d'interruption, car Amazon SageMaker peut reprendre les tâches de formation en utilisant le point de contrôle du modèle le plus récent. Les cadres intégrés et les algorithmes de vision artificielle intégrés avec SageMaker permettent d'utiliser des points de contrôle réguliers, ainsi que des points de contrôle avec des modèles personnalisés.

Q : Est-il nécessaire de générer régulièrement des points de contrôle avec la formation Sport gérée ?

Nous recommandons d'utiliser des points de contrôle régulier comme meilleure pratique générale pour les tâches de formation de longue durée. Cela empêche le redémarrage de vos tâches de formation Spot gérée si la capacité est préemptée. Lorsque vous activez les points de contrôle, Amazon SageMaker reprend vos tâches de formation Spot gérée à partir du dernier point de contrôle.

Q : Comment calculez-vous les économies de coûts avec les tâches de formation Spot gérée ?

Une fois qu'une tâche de formation Spot gérée est terminée, vous pouvez voir les économies réalisées dans AWS Management Console et les calculer en tant que différence en pourcentage entre la durée d'exécution de la tâche de formation et la durée facturée.

Quel que soit le nombre d'interruptions de vos tâches de formation Spot gérée, vous n'êtes facturé qu'une fois pour la durée pendant laquelle les données ont été téléchargées.

Q : Quelles instances puis-je utiliser avec la formation Spot gérée ?

Vous pouvez utiliser la formation Spot gérée avec toutes les instances prises en charge dans Amazon SageMaker.

Q : Quelle sont les régions AWS prises en charge avec la formation Spot gérée ?

La formation Spot gérée prend en charge toutes les régions AWS où Amazon SageMaker est actuellement disponible.

Q : Existe-t-il des limites concernant la taille de l'ensemble de données que je peux utiliser pour la formation ?

Aucune limite ne s'applique à la taille de l'ensemble des données que vous pouvez utiliser pour la formation de modèles avec Amazon SageMaker.

Q : Quelles sources de données puis-je facilement transférer dans Amazon SageMaker ?

Vous pouvez spécifier l'emplacement Amazon S3 de vos données de formation dans le cadre de la création d'une tâche de formation.

Q : Quels algorithmes Amazon SageMaker utilise-t-il pour générer des modèles ?

Amazon SageMaker comprend des algorithmes intégrés pour la régression linéaire, la régression logistique, le partitionnement en k-moyennes, l'analyse des composants principaux, les machines de factorisation, l'algorithme Neural Topic Model, l'allocation de Dirichlet latente, le boosting d'arbres de décision, l'algorithme sequence2sequence, la prévision des séries chronologiques, le groupe word2vec et la classification d'images. SageMaker fournit aussi des conteneurs Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn, et Deep Graph Library optimisés. De plus, Amazon SageMaker prend en charge vos algorithmes de formation personnalisés fournis par le biais d'une image Docker conforme aux spécifications documentées.

Q : Qu'est-ce que le réglage de modèle automatique ?

La plupart des algorithmes de Machine Learning exposent divers paramètres contrôlant la façon dont l'algorithme sous-jacent fonctionne. Ces paramètres sont généralement appelés hyperparamètres et leurs valeurs affectent la qualité des modèles formés. Le réglage de modèle automatique consiste en la recherche d'hyperparamètres pour un algorithme pouvant assumer un modèle optimal.

Q : Quels modèles peuvent être ajustés avec Automatic Model Tuning ?

Vous avez la possibilité d'exécuter le réglage de modèle automatique dans Amazon SageMaker avant tout autre algorithme à condition que cela soit techniquement faisable, notamment les algorithmes SageMaker intégrés, les réseaux de neurones approfondis ou encore les algorithmes arbitraires que vous importez dans SageMaker sous la forme d'images Docker.

Q : Puis-je utiliser Automatic Model Tuning en dehors d'Amazon SageMaker ?

Pas à l'heure actuelle Vous profiterez des meilleures performances et expériences de réglage de modèle dans Amazon SageMaker.

Q : Qu'est-ce que l'algorithme d'ajustement sous-jacent ?

À l'heure actuelle, notre algorithme d'ajustement des hyperparamètres consiste en une mise en application personnalisée d'une optimisation bayésienne. Il vise à optimiser une métrique d'objet spécifique au client par l'intermédiaire d'un processus d'ajustement. Plus particulièrement, il vérifie les métriques d'objet des tâches de formation terminées et tire profit des connaissances pour en déduire la combinaison d'hyperparamètres pour la prochaine tâche de formation.

Q : Recommanderez-vous des hyperparamètres pour l'ajustement ?

Non. L'impact des hyperparamètres sur les performances d'un modèle dépend de divers facteurs et il est difficile de se prononcer catégoriquement sur un hyperparamètre plus important que d'autres et qui doit donc être ajusté. En ce qui concerne les algorithmes intégrés dans Amazon SageMaker, nous déterminons si un hyperparamètre est ajustable ou non.

Q : Combien de temps prend une tâche d'ajustement d'hyperparamètre ?

La durée d'une tâche d'ajustement d'hyperparamètre dépend de plusieurs facteurs, dont la taille des données, l'algorithme sous-jacent et les valeurs des hyperparamètres. De plus, les clients peuvent choisir le nombre de tâches de formation simultanées ainsi que le total de tâches de formation. Tous ces choix affectent la durée potentielle d'une tâche d'ajustement d'hyperparamètre.

Q : Puis-je optimiser simultanément plusieurs objectifs en un modèle pour gagner en rapidité et en précision ?

Pas à l'heure actuelle Pour l'instant, vous devez spécifier une seule métrique d'objectif afin d'optimiser ou de modifier votre code d'algorithme et émettre une nouvelle métrique, ce qui correspond à une moyenne pondérée entre deux métriques utiles ou plus. Après cela, vous pouvez lancer l'optimisation du processus d'ajustement pour cette métrique d'objectif.

Q : Combien coûte Automatic Model Tuning ?

Une tâche d'ajustement d'hyperparamètre ne coûte rien en soi. Vous serez facturé en fonction des tâches de formation lancées par la tâche d'ajustement d'hyperparamètre, selon la tarification de formation de modèles.

Q : Comment décider d’utiliser Amazon SageMaker Autopilot ou Automatic Model Tuning?

Amazon SageMaker Autopilot automatise tout dans un flux de travail de machine learning typique, dont des fonctionnalités de traitement automatique, une sélection d’algorithme, et un réglage des hyper-paramètres, tout en se concentrant spécifiquement sur les cas d’utilisation de régression et de classification. Automatic Model Tuning, en revanche, est conçu pour régler n’importe quel modèle, qu’il soit basé sur des algorithmes intégrés, des structures de deep learning, ou des conteneurs personnalisés. En échange de cette flexibilité, vous devez choisir manuellement l’algorithme spécifique, déterminer les hyper-paramètres à régler, et les plages de recherche correspondantes.

Q : Qu'est-ce que l'apprentissage à renforcement ?

L'apprentissage à renforcement est une technique de machine learning qui permet à un agent d'apprendre à tâtonnement au sein d'un environnement interactif à l'aide de retours générés à la suite de ses propres actions et expériences.

Q : Est-il possible de former des modèles d'apprentissage à renforcement dans Amazon SageMaker ?

Oui, vous pouvez former des modèles d'apprentissage à renforcement dans Amazon SageMaker en plus des modèles d'apprentissage supervisés et non supervisés.

Q : Comment l'apprentissage à renforcement se distingue-t-il de l'apprentissage supervisé ?

Bien que l'apprentissage supervisé et à renforcement utilisent tous deux le mappage entre l'entrée et la sortie, l'apprentissage à renforcement privilégie l'usage de retours différés où les signaux de récompense sont optimisés pour assurer un but à long terme via une séquence d'actions, au contraire de l'apprentissage supervisé où les retours fournis à l'agent consistent en un ensemble d'actions appropriées pour effectuer une tâche donnée.

Q : Quand dois-je utiliser l'apprentissage à renforcement ?

L'objectif des méthodes d'apprentissage supervisé est de trouver la bonne réponse selon les schémas des données d'entraînement et l'objectif des méthodes d'apprentissage non supervisé est de trouver les similitudes et différences entre des points de données. Inversement, le but des techniques d'apprentissage à renforcement est d'apprendre comment atteindre un résultat espéré, même si la méthode pour y parvenir n'est pas évidente. Par conséquent, l'apprentissage à renforcement est plus adapté aux applications intelligentes comme la robotique, les véhicules autonomes, les systèmes CVC, les commandes industrielles, etc., où un agent est en mesure de prendre des décisions autonomes.

Q : Quelles sortes d'environnements puis-je utiliser pour la formation de modèles d'apprentissage à renforcement ?

L'apprentissage à renforcement Amazon SageMaker prend en charge divers environnements pour la formation de modèles d'apprentissage à renforcement. Vous pouvez utiliser les services AWS comme AWS RoboMaker, les environnements open source ou les environnements personnalisés développés à l'aide des interfaces Open AI Gym, ou des environnements de simulation commerciale comme MATLAB et SimuLink.

Q : Dois-je écrire mes propres algorithmes d'agent d'apprentissage à renforcement pour former mes modèles d'apprentissage à renforcement ?

Non, l'apprentissage à renforcement Amazon SageMaker dispose de boîtes à outils d'apprentissage à renforcement comme Coach et Ray RLLib qui proposent des implémentations d'algorithmes d'agent d'apprentissage à renforcement comme DQN, PPO, A3C et bien plus encore.

Q : Est-il possible d'amener mes propres bibliothèques et implémentations d'algorithmes d'apprentissage à renforcement, et de les exécuter dans l'apprentissage à renforcement Amazon SageMaker ?

Oui, vous pouvez amener vos propres bibliothèques et implémentations d'algorithmes d'apprentissage à renforcement dans des conteneurs Docker et utiliser ces derniers dans l'apprentissage à renforcement Amazon SageMaker.

Q : Est-il possible d'opérer des déploiements distribués à l'aide de l'apprentissage à renforcement Amazon SageMaker ?

Oui. Vous pouvez même sélectionner un cluster hétérogène où exécuter la formation sur une instance GPU, et les simulations peuvent s'exécuter sur plusieurs instances CPU.

Déployer des modèles

Q. Qu'est-ce la recherche de modèle Amazon SageMaker Model Monitor ?

Amazon SageMaker Model Monitor permet aux développeurs de détecter et de corriger les dérives de concept. SageMaker Model Monitor détecte automatiquement les dérives de concept dans les modèles déployés et fournit des alertes détaillées qui aident à identifier la source du problème. Tous les modèles formés dans SageMaker émettent automatiquement des mesures clés qui peuvent être collectées et visualisées dans SageMaker Studio. Depuis SageMaker Studio, vous pouvez configurer les données à collecter, les modalités de visualisation, et quand vous souhaitez recevoir des alertes.

Q : Puis-je accéder à l'infrastructure sur laquelle Amazon SageMaker s'exécute ?

Non. Amazon SageMaker gère l'infrastructure de calcul à votre place, lui permettant d'effectuer des vérifications de l'état de santé, d'appliquer des correctifs de sécurité et de réaliser d'autres opérations de maintenance quotidienne. Vous pouvez également déployer les artefacts de modèle de la formation avec un code d'inférence personnalisé dans votre propre environnement d'hébergement.

Q : Comment adapter la taille et les performances d'un modèle Amazon SageMaker après son déploiement en production ?

L'hébergement d'Amazon SageMaker s'adapte automatiquement aux performances nécessaires à votre application à l'aide d'Application Auto Scaling. En outre, vous pouvez modifier manuellement le nombre et le type d'instances tout en évitant les temps d'arrêt,et ce, en modifiant la configuration du point de terminaison.

Q : Comment surveiller mon environnement de production Amazon SageMaker ?

Amazon SageMaker émet des métriques de performance dans Amazon CloudWatch Metrics pour vous permettre de suivre les métriques, de définir des alarmes et de réagir automatiquement aux fluctuations du trafic de production. De plus, Amazon SageMaker écrit des journaux dans Amazon Cloudwatch Logs pour que vous puissiez surveiller et dépanner votre environnement de production.

Q : Quels types de modèles peuvent être hébergés avec Amazon SageMaker ?

Amazon SageMaker peut héberger tous les modèles conformes aux spécifications documentées pour les images d'inférence Docker. Cela inclut les modèles créés à partir des artefacts de modèles et du code d'inférence Amazon SageMaker.

Q : Combien de requêtes d'API en temps réel simultanées le service Amazon SageMaker prend-il en charge ?

Le service Amazon SageMaker est conçu pour s'adapter à un grand nombre de transactions par seconde. Le nombre précis varie en fonction du modèle déployé et du nombre et du type d'instances sur lesquelles le modèle est déployé.

Q : Qu'est-ce que Batch Transform ?

Batch Transform vous permet d'exécuter des prédictions sur des données de lots de grande ou de petite taille. Il n'est pas nécessaire de décomposer l'ensemble de données en plusieurs morceaux ou de gérer les points de terminaison en temps réel. Avec une API simple, vous pouvez demander des prédictions pour un grand nombre d'enregistrements de données et transformer ces données rapidement et facilement

Q : Qu'est-ce qu'Amazon SageMaker Neo ?

Amazon SageMaker Neo permet aux modèles de machine learning de se former une fois, puis de s'exécuter n'importe où dans le cloud et à la limite. SageMaker Neo optimise automatiquement les modèles créés dans des cadres de deep learning qui peuvent être utilisés pour un déploiement sur plusieurs plate-formes matérielles. Les modèles optimisés s'exécutent deux fois plus vite et consomment moins d'un dixième des ressources des modèles de formation de machine learning typiques.

Q : Comment démarrer avec Amazon SageMaker Neo ?

Pour démarrer avec Amazon SageMaker Neo, vous devez vous connecter à la console Amazon SageMaker, choisir un modèle formé, suivre l'exemple de compilation de modèles, puis déployer le modèle ainsi obtenu sur votre plate-forme de matériel cible.

Q : Quels sont les principaux composants d'Amazon SageMaker Neo ?

Amazon SageMaker Neo dispose de deux composants majeurs – un compilateur et une exécution. D'abord, le compilateur Neo lit les modèles exportés par différents cadres. Il convertit alors les fonctions et opérations spécifiques au cadre en une représentation intermédiaire agnostique de cadre. Ensuite, il effectue une série d'optimisations. Puis, le compilateur génère du code binaire pour les opérations optimisées et les écrit dans la bibliothèque d'objets partagés. Le compilateur enregistre également la définition et les paramètres du modèle dans des fichiers séparés. Lors de la réalisation, l'exécution Neo charge les artefacts créés par le compilateur : définition de modèle, paramètres et la bibliothèque d'objets partagés pour exécuter le modèle.

Q : Ai-je besoin d'utiliser Amazon SageMaker pour former mon modèle afin d'utiliser Amazon SageMaker Neo pour le convertir ?

Non. Vous pouvez former des modèles ailleurs et utiliser Neo afin de les optimiser pour des instances Amazon SageMaker ML ou des appareils AWS IoT Greengrass pris en charge.

Q : Quels modèles Amazon SageMaker Neo prend-il en charge ?

Amazon SageMaker Neo prend actuellement en charge les modèles les plus populaires de deep learning pour les applications de vision par ordinateur et les modèles d'arbre décisionnel utilisés aujourd'hui dans Amazon SageMaker. Neo optimise la performance des modèles AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet et DenseNet formés dans MXNet et TensorFlow, et la classification et les modèles à découpe de forêt aléatoire formés dans XGBoost.

Q : Quelles plates-formes Amazon SageMaker Neo prend-il en charge ?

Neo prend actuellement en charge les instances SageMaker ML.C5, ML.C4, ML.M5, ML.M4, ML.P3 et ML.P2, les appareils AWS DeepLens, Raspberry Pi et Jetson TX1/TX2, les CPU Intel® Atom et Intel® Xeon basés sur appareils Greengrass, les CPU ARM Cortex-A, et les GPU Nvidia Maxwell et Pascal.

Q : Ai-je besoin d'utiliser une version spécifique d'un cadre pris en charge par le matériel cible ?

Non. Les développeurs peuvent exécuter des modèles sur le cadre à l'aide d'un conteneur Amazon SageMaker Neo sans dépendances.

Q : Combien coûte l'utilisation de Amazon SageMaker Neo ?

Vous payez pour l'usage de l'instance Amazon SageMaker ML qui exécute l'inférence à l'aide de Amazon SageMaker Neo.

Q : Dans quelles régions AWS le service Amazon SageMaker Neo est-il disponible ?

Pour voir la liste des régions prises en charge, consultez le tableau des régions AWS.

En savoir plus sur la tarification d'Amazon SageMaker

Consultez la page de tarification
Prêt à vous lancer ?
S'inscrire
D'autres questions ?
Contactez-nous