Amazon SageMaker HyperPod unterstützt jetzt die Ausführung von IDEs und Notebooks, um die KI-Entwicklung zu beschleunigen

Veröffentlicht am: 21. Nov. 2025

Amazon SageMaker HyperPod unterstützt jetzt IDEs und Notebooks, sodass KI-Entwickler JupyterLab oder Code Editor ausführen sowie lokale IDEs verbinden können, um ihre interaktiven KI-Workloads direkt auf HyperPod-Clustern auszuführen.

Mit dieser Version können KI-Entwickler IDEs und Notebooks auf denselben persistenten HyperPod-EKS-Clustern ausführen, die auch für Training und Inferenz verwendet werden. Entwickler können die skalierbare GPU-Kapazität von HyperPod mit vertrauten Tools wie HyperPod CLI nutzen und gleichzeitig Daten über IDEs hinweg sowie Trainingsjobs über gemountete Dateisysteme wie FSx und EFS hinweg austauschen. Die Lösung unterstützt die Ausführung mehrerer IDEs auf derselben GPU-Instance oder auf einzelnen GPUs mit der Multi-Instance-GPU (MIG)-Unterstützung auf HyperPod.

Administratoren ihre CPU/GPU-Investitionen mit einheitlicher Governance optimal nutzen, indem sie IDEs, Schulungs- und Inferenz-Workloads mit HyperPod Aufgaben-Governance verwalten. HyperPod-Beobachtbarkeit bietet umfassende Nutzungsmetriken, einschließlich CPU-, GPU- und Speicherverbrauch, sodass Administratoren die Cluster-Auslastung optimieren und ihre Kosten effektiv verwalten können.

Dieses Feature ist in allen AWS-Regionen verfügbar, in denen Amazon SageMaker Hyperpod derzeit verfügbar ist, mit Ausnahme von China und GovCloud (USA). Weitere Informationen finden Sie in unserer Dokumentation.