Présentation d'Amazon SageMaker — Accélération du machine learning
Publié le:
19 oct. 2023
Nous lançons aujourd'hui Amazon SageMaker dans l’AWS Secret Region. Amazon SageMaker est un service de machine learning entièrement géré, qui permet aux scientifiques des données et aux développeurs de machine learning de créer, former et déployer rapidement des modèles de machine learning à grande échelle. Cela accélère considérablement tous vos efforts de machine learning et vous permet d'ajouter rapidement le machine learning à vos applications de production.
Nous lançons cinq composants principaux pour Amazon SageMaker :
- Création : IDE de bloc-notes Jupyter hébergés sans configuration pour l'exploration, le nettoyage et le prétraitement des données. Vous pouvez les exécuter sur des types d'instances généraux ou des instances alimentées par GPU.
- Entraînement des modèles : service distribué de création, d’entraînement et de validation des modèles. Vous pouvez utiliser des algorithmes et des cadres d'apprentissage supervisé et non supervisé courants intégrés ou créer votre propre entraînement à l'aide de conteneurs Docker. L’entraînement peut être étendu à des dizaines d'instances pour accélérer la création de modèles. Les données d'entraînement sont lues à partir de S3 et les artefacts du modèle sont placés dans S3. Les artefacts du modèle sont les paramètres du modèle qui dépendent des données, et non le code qui vous permet de faire des inférences à partir de votre modèle. Cette séparation des préoccupations facilite le déploiement de modèles entraînés par Amazon SageMaker sur d'autres plateformes.
- Hébergement de modèles : un service d'hébergement de modèles avec des points de terminaison HTTPS pour invoquer vos modèles afin d'obtenir des inférences en temps réel. Ces points de terminaison peuvent évoluer pour prendre en charge le trafic et vous permettre de tester plusieurs modèles simultanément. Encore une fois, vous pouvez créer ces points de terminaison à l'aide du SDK intégré ou fournir vos propres configurations avec des images Docker. Amazon SageMaker Neo permet aux clients de former des modèles une fois et de les exécuter n’importe où avec une performance jusqu’à sept fois supérieure. Les applications exécutées sur des appareils connectés à la périphérie sont particulièrement sensibles aux performances des modèles de machine learning. Ils nécessitent des décisions à faible latence et sont souvent déployés sur un grand nombre de plates-formes matérielles différentes.
- Amazon SageMaker Neo compile des modèles pour des plates-formes matérielles spécifiques, en optimisant automatiquement leurs performances et en leur permettant de fonctionner jusqu'à sept fois plus rapidement sans perte de précision. En conséquence, les développeurs n'ont plus besoin de perdre du temps à ajuster leurs modèles formés pour chaque plate-forme matérielle (économisant ainsi du temps et de l'argent). SageMaker Neo prend en charge les plates-formes matérielles de NVIDIA, Intel, Xilinx, Cadence et Arm, ainsi que les infrastructures courantes telles que Tensorflow, Apache MXNet et PyTorch.
- Amazon SageMaker GroundTruth : si vous souhaitez créer et gérer vos propres flux et votre propre main-d'œuvre d'étiquetage des données, vous pouvez utiliser SageMaker Ground Truth. SageMaker Ground Truth est un service d'étiquetage de données, qui facilite l'étiquetage des données et vous donne la possibilité d'utiliser des fournisseurs tiers ou votre propre main-d'œuvre privée. Vous pouvez également générer des données de synthèse étiquetées sans avoir à collecter ou étiqueter manuellement les données réelles. SageMaker Ground Truth peut générer pour vous des centaines de milliers d'images de synthèse étiquetées automatiquement.
Le contenu de cet article est fourni à titre informatif uniquement. Pour en savoir plus sur Amazon Sagemaker dans le Cloud Secret, veuillez nous contacter.