Questions d'ordre général

Q : Qu'est-ce qu'Amazon SageMaker ?

Amazon SageMaker est un service entièrement géré permettant aux développeurs et aux spécialistes des données de créer, former et déployer rapidement et facilement des modèles d'apprentissage automatique.

Q : Que puis-je faire avec Amazon SageMaker ?

Amazon SageMaker permet aux développeurs et aux spécialistes des données de créer des modèles d'apprentissage automatique pour une utilisation dans des applications intelligentes et prédictives.

Q : Comment démarrer avec Amazon SageMaker ?

Pour démarrer avec Amazon SageMaker, vous devez vous connecter à la console Amazon SageMaker, lancer une instance de bloc-notes avec un exemple de bloc-notes, la modifier pour la connecter à vos sources de données, suivre l'exemple pour créer/former/valider des modèles, et déployer en production le modèle ainsi obtenu avec seulement quelques entrées.

Q : Dans quelles régions le service Amazon SageMaker est-il disponible ?

Pour obtenir la liste des régions AWS prenant en charge Amazon SageMaker, veuillez consulter le Tableau des régions AWS de toute l'infrastructure mondiale AWS. Pour en savoir plus, consultez Régions et points de terminaison dans la Référence générale AWS.

Q : Puis-je obtenir un historique de tous les appels d'API Amazon SageMaker effectués sur mon compte à des fins d'analyse de sécurité et de résolution des problèmes opérationnels ? 

Oui. Pour obtenir un historique des appels d'API Amazon SageMaker réalisés sur votre compte, il vous suffit d'activer AWS CloudTrail dans AWS Management Console. Les appels d'API suivant dans Amazon SageMaker Runtime ne sont *pas* enregistrés et transmis : InvokeEndpoint.

Q : Quelle est la disponibilité du service Amazon SageMaker ?

Le service Amazon SageMaker est conçu pour offrir une haute disponibilité. Il n'y a ni fenêtres de maintenance ni arrêts programmés. Les API Amazon SageMaker fonctionnent dans les centres de données fiables et hautement disponibles d'Amazon. En outre, cette API offre une réplication de piles de service configurée dans trois installations au sein de chaque région AWS, afin d'assurer une tolérance aux pannes en cas de panne du serveur ou au niveau de la zone de disponibilité.

Q : Quelles mesures de sécurité sont intégrées au service Amazon SageMaker ?

Amazon SageMaker garantit que les artefacts de modèles d'apprentissage automatique et d'autres artefacts du système sont chiffrés en transit et au repos. Les requêtes sont envoyées à l'API et à la console Amazon SageMaker par le biais d'une connexion sécurisée (SSL). Vous transmettez des rôles AWS Identity and Access Management à Amazon SageMaker pour accorder des autorisations d'accès aux ressources en votre nom pour la formation et le déploiement. Vous pouvez utiliser des compartiments S3 chiffrés pour les artefacts de modèles et les données, ainsi que pour transmettre une clé KMS à des notebooks Amazon SageMaker, des tâches d'entraînement et des points de terminaison, afin de chiffrer le volume de stockage d'apprentissage machine attaché.

Q : Comment le service Amazon SageMaker sécurise-t-il mon code ?

Amazon SageMaker stocke votre code dans des volumes de stockage d'apprentissage automatique, sécurisés par des groupes de sécurité et éventuellement chiffrés au repos.

Q : De quelle manière l'utilisation d'Amazon SageMaker m'est-elle facturée ?

Vous payez les ressources de calcul, de stockage et de traitement des données d'apprentissage automatique que vous utilisez pour héberger le bloc-notes, former le modèle, réaliser des prédictions et journaliser les sorties. Amazon SageMaker vous permet de sélectionner le nombre et le type d'instances utilisées pour le bloc-notes hébergé, la formation et l'hébergement du modèle. Vous payez uniquement ce que vous utilisez et en fonction de votre consommation ; il n'y a pas de frais minimums et aucun engagement initial n'est requis.

Q : Et si je possède mon propre bloc-notes, ma propre formation ou mon propre environnement d'hébergement ?

Amazon SageMaker fournit un flux de travail complet de bout en bout, mais vous pouvez à utiliser vos outils existants avec le service. Vous pouvez facilement transférer les résultats de chaque étape vers et depuis Amazon SageMaker en fonction de vos besoins métier.

Blocs-notes Jupyter hébergés

Q : Quels types de blocs-notes sont pris en charge ?

Les blocs-notes Jupyter sont actuellement pris en charge.

Q : Comment conservez-vous les fichiers de bloc-notes lorsque j'arrête mon espace de travail ?

Vous pouvez conserver vos fichiers de bloc-notes sur le volume de stockage d'apprentissage automatique attaché. Le volume de stockage d'apprentissage automatique est détaché lorsque l'instance de bloc-notes est arrêtée et rattaché lorsque celle-ci est relancée. Les éléments stockés en mémoire ne sont pas conservés.

Q : Comment augmenter les ressources disponibles dans mon bloc-notes ?

Vous pouvez modifier l'instance de bloc-notes et sélectionner un profil supérieur via la console Amazon SageMaker, après avoir enregistré vos fichiers et données dans le volume de stockage d'apprentissage automatique attaché. L'instance de bloc-notes est alors redémarrée avec un plus grand nombre de ressources disponibles, avec les mêmes fichiers de bloc-notes et bibliothèques installées.

Q : Comment former un modèle à partir d'un bloc-notes Amazon SageMaker ?

Après avoir lancé un exemple de bloc-notes, vous pouvez personnaliser le bloc-notes pour l'adapter à votre source de données et à votre schéma, puis exécuter les API AWS pour créer une tâche de formation. L'état d'avancement ou d'achèvement de la tâche est disponible via la console Amazon SageMaker ou les API AWS.

Formation de modèle

Q : Existe-t-il des limites concernant la taille de l'ensemble de données que je peux utiliser pour la formation ?

Aucune limite ne s'applique à la taille de l'ensemble de données que vous pouvez utiliser pour la formation de modèles avec Amazon SageMaker.

Q : Quelles sources de données puis-je facilement transférer dans Amazon SageMaker ?

Vous pouvez spécifier l'emplacement Amazon S3 de vos données de formation dans le cadre de la création d'une tâche de formation.

Q : Quels algorithmes le service Amazon SageMaker utilise-t-il pour générer des modèles ?

Amazon SageMaker comprend des algorithmes intégrés pour la régression linéaire, la régression logistique, le partitionnement en k-moyennes, l'analyse des composants principaux, les machines de factorisation, l'algorithme Neural Topic Model, l'allocation de Dirichlet latente, le boosting d'arbres de décision, l'algorithme sequence2sequence, la prévision des séries chronologiques, le groupe word2vec et la classification d'images. Amazon SageMaker fournit également des conteneurs optimisés Apache MXNet, Tensorflow, Chainer et PyTorch. De plus, Amazon SageMaker prend en charge vos algorithmes de formation personnalisés fournis via une image Docker conforme aux spécifications documentées.

Q : Qu'est-ce qu'Automatic Model Tuning ?

La plupart des algorithmes de Machine Learning exposent divers paramètres contrôlant la façon dont l'algorithme sous-jacent fonctionne. Ces paramètres sont généralement appelés hyperparamètres et leurs valeurs affectent la qualité des modèles formés. Automatic Model Tuning consiste en la recherche d'hyperparamètres pour un algorithme pouvant assumer un modèle optimal.

Q : Quels modèles peuvent être ajustés avec Automatic Model Tuning ?

Vous avez la possibilité d'exécuter Automatic Model Tuning dans Amazon SageMaker avant tout autre algorithme à condition que ce soit technique faisable, notamment les algorithmes SageMaker intégrés, les réseaux neuraux approfondis ou encore les algorithmes que vous importez dans Amazon SageMaker sous la forme d'images Docker.

Q : Puis-je utiliser Automatic Model Tuning en dehors d'Amazon SageMaker ?

Pas à l'heure actuelle. Vous profiterez des meilleures performances et expériences d'ajustement de modèle dans Amazon SageMaker.

Q : Qu'est-ce que l'algorithme d'ajustement sous-jacent ?

À l'heure actuelle, notre algorithme d'ajustement des hyperparamètres consiste en une mise en application personnalisée d'une optimisation bayésienne. Il vise à optimiser une métrique d'objet spécifique au client par l'intermédiaire d'un processus d'ajustement. D'une manière spécifique, il vérifie les métriques d'objet des tâches de formation terminées et utilise les connaissances pour en déduire la combinaison d'hyperparamètres pour la prochaine tâche de formation.

Q : Recommanderez-vous des hyperparamètres pour l'ajustement ?

Non. L'impact des hyperparamètres sur les performances d'un modèle dépend de divers facteurs et il est difficile de se prononcer catégoriquement sur un hyperparamètre plus important que d'autres et qui doit donc être ajusté. Pour les algorithmes intégrés dans Amazon SageMaker, nous déterminons si un hyperparamètre est ajustable ou non.

Q : Combien de temps prend une tâche d'ajustement d'hyperparamètre ?

La durée d'une tâche d'ajustement d'hyperparamètre dépend de plusieurs facteurs, dont la taille des données, l'algorithme sous-jacent et les valeurs des hyperparamètres. De plus, les clients peuvent choisir le nombre de tâches de formation simultanées ainsi que le total de tâches de formation. Tous ces choix affectent la durée potentielle d'une tâche d'ajustement d'hyperparamètre. 

Q : Puis-je optimiser simultanément plusieurs objectifs en un modèle pour gagner en rapidité et en précision ?

Pas à l'heure actuelle. Pour l'instant, vous devez spécifier une seule métrique d'objectif pour optimiser ou modifier votre code d'algorithme et émettre une nouvelle métrique, ce qui correspond à une moyenne pondérée entre deux métriques utiles ou plus. Après cela, vous pouvez lancer l'optimisation du processus d'ajustement pour cette métrique d'objectif.

Q : Combien coûte Automatic Model Tuning ?

Une tâche d'ajustement d'hyperparamètre ne coûte rien en soi. Vous serez facturé en fonction des tâches de formation lancées par la tâche d'ajustement d'hyperparamètre, selon la tarification de formation de modèles.

Q : Qu'est-ce que l'apprentissage à renforcement ?

L'apprentissage à renforcement est une technique d'apprentissage automatique qui permet à un agent d'apprendre à tâtonnement au sein d'un environnement interactif à l'aide de retours suite à ses propres actions et expériences.

Q : Est-il possible de former des modèles de renforcement dans Amazon SageMaker ?

Oui, vous pouvez former des modèles d'apprentissage à renforcement dans Amazon SageMaker en plus des modèles d'apprentissage supervisés et non supervisés.

Q : Comment l'apprentissage à renforcement se distingue-t-il se l'apprentissage supervisé ?

Bien que l'apprentissage supervisé et à renforcement utilisent tous deux le mappage entre l'entrée et la sortie, l'apprentissage à renforcement privilégie l'usage de retours différés où les signaux de récompense sont optimisés pour assurer un but à long terme via une séquence d'actions, au contraire de l'apprentissage supervisé où les retours fournis à l'agent consistent en un ensemble d'actions appropriées pour effectuer une tâche donnée.

Q : Quand dois-je utiliser l'apprentissage à renforcement ?

L'objectif des méthodes d'apprentissage supervisé est de trouver la bonne réponse selon les schémas des données de formation et l'objectif des méthodes d'apprentissage non supervisé est de trouver les similitudes et différences entre des points de données. Inversement, le but des techniques d'apprentissage à renforcement est d'apprendre comment atteindre un résultat espéré, même si la méthode pour y parvenir n'est pas évidente. Par conséquent, l'apprentissage à renforcement est plus adapté aux applications intelligentes comme la robotique, les véhicules autonomes, HVAC, les commandes industrielles, etc., où un agent est en mesure de prendre des décisions autonomes.

Q : Quelles sortes d'environnements peuvent être utilisées pour la formation de modèles d'apprentissage à renforcement ?

L'apprentissage à renforcement Amazon SageMaker prend en charge divers environnements pour la formation de modèles d'apprentissage à renforcement. Vous pouvez utiliser les services AWS comme AWS RoboMaker, les environnements open source ou les environnements personnalisés développés à l'aide des interfaces Open AI Gym, ou des environnements de simulation commerciale comme MATLAB et SimuLink.

Q : Dois-je écrire mes propres algorithmes d'agent d'apprentissage à renforcement pour former mes modèles d'apprentissage à renforcement ?

Non, l'apprentissage à renforcement Amazon SageMaker dispose de boîtes à outils d'apprentissage à renforcement comme Coach et Ray RLLib qui proposent des implémentations d'algorithmes d'agent d'apprentissage à renforcement comme DQN, PPO, A3C et bien plus encore.

Q : Est-il possible d'amener mes propres bibliothèques et implémentation d'algorithme d'apprentissage à renforcement et de les utiliser dans l'apprentissage à renforcement Amazon SageMaker ?

Oui, vous pouvez amener vos propres bibliothèques et implémentations d'algorithmes d'apprentissage à renforcement dans des Compartiments Docker et utiliser ces derniers dans l'apprentissage à renforcement Amazon SageMaker.

Q : Est-il possible d'opérer des déploiements distribués à l'aide d'Amazon SageMaker RL ?

Oui. Vous pouvez même sélectionner un cluster hétérogène où exécuter la formation sur une instance GPU, et les simulations peuvent s'exécuter sur plusieurs instances d'UC.

Q : Qu'est-ce qu'Amazon SageMaker Neo ?

Amazon SageMaker Neo est une nouvelle capacité qui permet aux modèles d'apprentissage automatique de se former une fois, puis de s'exécuter n'importe où dans le cloud et à la limite. SageMaker Neo optimise automatiquement les modèles créés dans des cadres de deep learning qui peuvent être utilisés pour un déploiement sur plusieurs plate-formes matérielles. Les modèles optimisés s'exécutent deux fois plus vite et consomment moins d'un dixième des ressources des modèles de formation d'apprentissage automatique typiques.


Q : Comment démarrer avec Amazon SageMaker Neo ?

Pour démarrer avec Amazon SageMaker Neo, vous devez vous connecter à la console Amazon SageMaker, choisir un modèle formé, suivre l'exemple de compilation de modèles, puis déployer le modèle résultant sur votre plate-forme de matériel cible.

 

Q : Quels sont les principaux composants du logiciel Amazon SageMaker Neo ?

Amazon SageMaker Neo dispose de deux composants majeurs – un compilateur et une exécution. D'abord, le compilateur Neo lit les modèles exportés par différents cadres. Il convertit alors les fonctions et opérations spécifiques au cadre en une représentation intermédiaire agnostique de cadre. Ensuite, il effectue une série d'optimisations. Puis, le compilateur génère du code binaire pour les opérations optimisées et les écrit dans la bibliothèque d'objets partagés. Le compilateur enregistre également la définition et les paramètres du modèle dans des fichiers séparés. Lors de la réalisation, l'exécution Neo charge les artefacts créés par le compilateur -- définition de modèle, paramètres et la bibliothèque d'objets partagés pour exécuter le modèle.


 

Q : Ai-je besoin d'utiliser SageMaker pour former mon modèle afin d'utiliser Neo pour le convertir ?

Non. Vous pouvez former des modèles ailleurs et utiliser Neo afin de les optimiser pour des instances SageMaker ML ou des appareils Greengrass pris en charge. 

 

 

Q : Quels modèles SageMaker Neo prend-il en charge ?

SageMaker Neo prend actuellement en charge les modèles les plus populaires de deep learning pour les applications de vision par ordinateur et les modèles d'arbre décisionnel utilisés aujourd'hui dans Amazon SageMaker. Neo optimise la performance des modèles AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet et DenseNet formés dans MXNet et TensorFlow, et la classification et les modèles à découpe de forêt aléatoire formés dans XGBoost.


 

 

Q : Quelles plate-formes SageMaker Neo prend-il en charge ?

Neo prend actuellement en charge les instances SageMaker ML.C5, ML.C4, ML.M5, ML.M4, ML.P3 et ML.P2, les appareils AWS DeepLens, Raspberry Pi et Jetson TX1/TX2, les UC Intel® Atom et Intel® Xeon basés sur appareils Greengrass, les UC ARM Cortex-A, et les GPU Nvidia Maxwell et Pascal.

 

 

 

Q : Ai-je besoin d'utiliser une version spécifique d'un cadre pris en charge par le matériel cible ?

Non. Les développeurs peuvent exécuter des modèles sur le cadre à l'aide d'un conteneur SageMaker Neo sans dépendances.

 

 

 

Q : Combien coûte l’utilisation de SageMaker Neo ?

Vous payez pour l'usage de l'instance SageMaker ML qui exécute l'inférence à l'aide de SageMaker Neo.

 

 

 

Q : Dans quelles régions AWS le service SageMaker Neo est-il disponible ?

SageMaker Neo est actuellement disponible dans les régions AWS N. Virginia, Oregon, Ohio et Irlande. 

 

 

 

Q : Qu'est-ce la recherche de modèle Amazon SageMaker ?

Amazon SageMaker permet de trouver et d'évaluer rapidement les exécutions de formation de modèle les plus pertinentes parmi plusieurs centaines ou milliers de tâches de formation de modèle Amazon SageMaker. SageMaker Search est disponible via AWS Management Console et les API SDK AWS pour Amazon SageMaker.

 

 

 

Q : Comment organiser et rechercher mes exécutions de formation de modèle ?

Avec les fonctionnalités de recherche de modèle, vous pouvez rechercher et organiser vos exécutions de formation de modèle en fonction de n'importe quelle propriété de tâche de formation de votre choix comme l'heure de création de la tâche de formation, l'URI de l'ensemble de données de formation, les valeurs d'hyperparamètre, ou n'importe quelle métadonnée de tâche de formation. L'utilisation de balises pour étiqueter les tâches de formation de modèles est une façon flexible d'organiser et de grouper les tâches de formation. La recherche par balises vous permet de trouver rapidement les exécutions de formation de modèle associées à un projet spécifique, un labo de recherche ou une équipe de science des données, puis de cataloguer vos exécutions de formation de modèle.

 

 

 

Q : Comment créer un classement d'exécutions de formation à l'aide des fonctionnalités de recherche de modèle ?

Les tâches de formation de modèle sont présentées dans un tableau AWS Management Console, d'une manière similaire à un classement. Tous les hyperparamètres et les métriques de formation de modèle se trouvent dans des colonnes que vous pouvez trier. Vous pouvez cliquer sur l’en-tête d’une colonne pour ordonner le classement selon la métrique de performance d’objet de votre choix. Vous pouvez également comparer et classer rapidement les exécutions de formation en fonction de leurs métriques de performances, telles que la perte de la formation et la précision de la validation. Vous pouvez ainsi choisir dans un classement les modèles les plus adéquats pour le déploiement en environnement de production.

 

 

 

Q : Comment tracer la descendance de modèle ou de point de terminaison ?

Naviguez vers « Points de terminaison » dans la console AWS Management Console pour Amazon SageMaker, puis choisissez le point de terminaison dans la liste de tous vos points de terminaison déployés. Défilez ensuite pour voir les « Paramètres de configuration de point de terminaison » sur la page du point de terminaison sélectionné pour afficher toutes les versions de modèles déployés au point de terminaison. Vous pouvez voir un lien direct vers la tâche de formation de modèle qui a créé le modèle en premier lieu à droite de chaque version de modèle.


 

 

 

Déploiement du modèle

Q : Puis-je accéder à l'infrastructure sur laquelle Amazon SageMaker s'exécute ?

Non. Amazon SageMaker gère l'infrastructure de calcul à votre place, lui permettant d'effectuer des vérifications de l'état de santé, d'appliquer des correctifs de sécurité et de réaliser d'autres opérations de maintenance quotidienne. Vous pouvez également déployer les artefacts de modèle de la formation avec un code d'inférence personnalisé dans votre propre environnement d'hébergement.

Q : Comment adapter la taille et les performances d'un modèle Amazon SageMaker après son déploiement en production ?

L'hébergement d'Amazon SageMaker s'adapte automatiquement aux performances nécessaires à votre application à l'aide d'Application Auto Scaling. En outre, vous pouvez modifier manuellement le nombre et le type d'instances, tout en évitant les temps d'arrêt en modifiant la configuration du point de terminaison.

Q : Comment surveiller mon environnement de production Amazon SageMaker ?

Amazon SageMaker émet des métriques de performance dans Amazon CloudWatch Metrics pour vous permettre de suivre les métriques, de définir des alarmes et de réagir automatiquement aux fluctuations du trafic de production. De plus, Amazon SageMaker écrit des journaux dans Amazon Cloudwatch Logs pour que vous puissiez surveiller et dépanner votre environnement de production.

Q : Quels types de modèles peuvent être hébergés avec Amazon SageMaker ?

Amazon SageMaker peut héberger tous les modèles conformes aux spécifications documentées pour les images d'inférence Docker. Cela inclut les modèles créés à partir des artefacts de modèles et du code d'inférence Amazon SageMaker.

Q : Combien de requêtes d'API en temps réel simultanées le service Amazon SageMaker prend-il en charge ?

Le service Amazon SageMaker est conçu pour s'adapter à un grand nombre de transactions par seconde. Le nombre précis varie en fonction du modèle déployé et du nombre et du type d'instances sur lesquelles le modèle est déployé.


Q : Qu'est-ce que Batch Transform ?

Batch Transform vous permet d'exécuter des prédictions sur des données de lots de grande ou de petite taille. Il n'est pas nécessaire de décomposer l'ensemble de données en plusieurs morceaux ou de gérer les points de terminaison en temps réel. Avec une API simple, vous pouvez demander des prédictions pour un grand nombre d'enregistrements de données et transformer ces données rapidement et facilement.

 

En savoir plus sur la tarification d'Amazon SageMaker

Consultez la page de tarification
Prêt à vous lancer ?
S'inscrire
D'autres questions ?
Contactez-nous