Veröffentlicht am: May 10, 2022

Ab sofort stehen neue Upgrades für Kunden bereit, die Amazon-SageMaker-Notebook-Instances verwenden, inklusive der ml.g5-GPU-Instance-Familie und Support für Python 3.8.

Kunden von Amazon SageMaker können jetzt ml.g5-Instances auswählen, die von NVIDIA-A10G-Tensor-Core-GPUs angetrieben werden, wenn sie eine Notebook-Instance von Amazon SageMaker mit dem Betriebssystem Amazon Linux 2 (AL2) erstellen. ml.g5-Instances verfügen über bis zu 8 NVIDIA-A10G-Tensor-Core-GPUs und AMD-EPYC-Prozessoren der zweiten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 100 Gbit/s Netzwerkbandbreite und bis zu 7,6 TB lokalen NVMe-SSD-Speicher. Die Kunden können die am besten geeignete Instance-Größe aus acht Optionen wählen, die zwischen einer und acht GPUs bieten. Um mehr über ml.g5-Instances zu erfahren, besuchen Sie den AWS-News-Blog oder die G5-Instance-Seite.

Kunden können darüber hinaus jetzt Python 3.8-Kernels mit ihren Notebooks auf Amazon-SageMaker-Notebook-Instances verwenden. Kunden können mit Python 3.8 Conda-Bilder für Pytorch oder Tensorflow für ihre Notebooks auswählen.

Python 3.8-Kernel sind in allen öffentlichen AWS-Regionen verfügbar. ml.g5-Instances sind in den folgenden AWS-Regionen verfügbar: USA Ost (Nord-Virginia), USA West (Oregon) und Europa (Irland).

Um zu starten, gehen Sie zur Amazon-SageMaker-Konsole und wählen Sie eine der acht ml.g5-Instances aus, die beim Erstellen eines SageMaker-Notebooks auf dem AL2-Betriebssystem verfügbar sind. Wählen Sie anschließend entweder conda_tensorflow2_p38 oder conda_pytorch_p38 aus den verschiedenen Kernel-Optionen aus.