Publié le: Dec 9, 2022

L'entraînement de modèles Amazon SageMaker prend désormais en charge la version préliminaire des instances ml.p4de.24xlarge(p4de) basées sur des GPU NVIDIA A100 et la mémoire GPU HBM2e haute performance. Ces instances fournissent l'infrastructure de calcul la plus performante actuellement disponible pour les cas d'utilisation nécessitant l'entraînement de grands modèles de langage (LLM), de reconnaissance d'image (détection d'objets, segmentation sémantique) et d'intelligence artificielle générative.

Les instances P4de proposent 8 GPU NVIDIA A100 avec une mémoire GPU HBM2e haute performance de 80 Go, soit deux fois plus de GPU que les instances p4d. La mémoire GPU accrue contribue principalement à réduire le temps et les coûts d'entraînement pour les flux de travail impliquant de grands jeux de données haute résolution et des modèles complexes. Semblables à p4d, ils prennent également en charge jusqu'à 96 CPU virtuels, jusqu'à 400 Gbit/s de bande passante du réseau avec EFA et GPUDirect RDMA, et jusqu'à 8 To de stockage SSD NVMe local.

L'entraînement de modèles SageMaker prend en charge les instances p4de dans les régions USA Est (Virginie du Nord) et USA Ouest (Oregon).

Pour en savoir plus sur les instances p4de, consultez le blog des actualités AWS ou la page dédiée à l'instance Amazon EC2 P4. Pour commencer à utiliser les instances p4de, consultez la documentation Amazon SageMaker et la page de l'entraînement de modèles SageMaker. Pour obtenir plus d'informations sur les tarifs de p4de, consultez la page web de tarification d'Amazon SageMaker