Publicado: May 10, 2022
Novas atualizações já estão disponíveis para clientes que usam instâncias de cadernos do Amazon SageMaker, incluindo a disponibilidade da família de instâncias de GPU ml.g5 e suporte ao Python 3.8.
Agora os clientes do Amazon SageMaker podem selecionar instâncias ml.g5 com as GPUs NVIDIA A10G Tensor Core ao criar uma instância de cadernos do Amazon SageMaker usando o sistema operacional Amazon Linux 2 (AL2). As instâncias ml.g5 oferecem até 8 GPUs NVIDIA A10G Tensor Core e processadores AMD EPYC de 2.ª geração. Elas também são compatíveis com até 192 vCPUs, até 100 Gbps de largura de banda de rede e até 7,6 TB de armazenamento local em SSD NVMe. Os clientes podem escolher o tamanho mais apropriado da instância, entre oito opções, oferecendo entre uma e oito GPUs. Para saber mais sobre as instâncias ml.g5, acesse o blog de notícias da AWS ou a página da instância G5 para saber mais.
Além disso, os clientes agora podem usar kernels Python 3.8 com seus cadernos em instâncias de cadernos do Amazon SageMaker. Os clientes podem selecionar imagens Conda com Python 3.8 para Pytorch ou Tensorflow para seus cadernos.
Os kernels do Python 3.8 estão disponíveis em todas as regiões públicas da AWS. As instâncias ml.g5 estão disponíveis nas seguintes regiões da AWS: Leste dos EUA (Norte da Virgínia), Oeste dos EUA (Oregon) e Europa (Irlanda).
Para começar a usar, acesse o console do Amazon SageMaker e selecione uma das oito instâncias ml.g5 disponíveis ao criar um caderno do SageMaker no sistema operacional AL2. Em seguida, selecione conda_tensorflow2_p38 ou conda_pytorch_p38 entre as várias opções de kernel.