Amazon SageMaker HyperPod prend désormais en charge l'exécution d'IDE et de notebooks afin d'accélérer le développement de l'IA

Publié le: 21 nov. 2025

Amazon SageMaker HyperPod prend désormais en charge les IDE et les notebooks, ce qui permet aux développeurs d'IA d'exécuter JupyterLab et Code Editor, ou encore de connecter des IDE locaux pour exécuter leurs charges de travail d'IA interactives directement sur des clusters HyperPod.

Cette nouveauté permet aux développeurs d'IA d'exécuter des IDE et des notebooks sur les mêmes clusters HyperPod EKS persistants utilisés pour la formation et l'inférence. Les développeurs peuvent tirer parti de la capacité GPU évolutive d'HyperPod à l'aide d'outils familiers tels que HyperPod CLI, tout en partageant des données entre les IDE et en effectuant des tâches de formation via des systèmes de fichiers montés tels que FSx et EFS. La solution prend en charge l'exécution de plusieurs IDE sur la même instance GPU, ainsi que sur un seul GPU, en tirant parti de la prise en charge du GPU multi-instance (MIG) sur HyperPod.

Les administrateurs peuvent optimiser les investissements dans les CPU/GPU grâce à une gouvernance unifiée des IDE, à la formation et aux charges de travail d'inférence grâce à HyperPod Task Governance. HyperPod Observability fournit des métriques d'utilisation complètes, notamment la consommation du processeur, du GPU et de la mémoire, ce qui permet aux administrateurs d'optimiser l'utilisation du cluster et de gérer les coûts de manière efficace.

Cette fonctionnalité est disponible dans toutes les régions AWS où Amazon SageMaker HyperPod est actuellement disponible, à l'exception des régions Chine et GovCloud (US). Pour en savoir plus, consultez notre documentation.